Wprowadzenie

Choć może nie do końca zdajemy sobie z tego sprawę, sztuczna inteligencja jest coraz bliżej nas. Wspominaliśmy już o tym przy okazji tekstu o algorytmach genetycznych i tam też znalazło się kilka przykładów obrazujących, gdzie w naszym codziennym życiu spotykamy się z AI. 

W tym artykule skupimy się na jednym aspekcie sztucznej inteligencji, a mianowicie na możliwościach generowania tekstu za pomocą modelu językowego.

Przyjrzymy się, jak działa pisanie tekstu za jego pomocą oraz jakie przynosi korzyści. Zastanowimy się też, czy AI jest już na tyle rozwinięta w tym obszarze, że może zastąpić człowieka i jakie są prognozy na przyszłość w kontekście jej rozwoju. No i oczywiście sprawdzimy, jak generowanie tekstów może pomóc w content marketingu.

generowanie tekstów

Czym jest NLG?

NLG (Natural language generation) to proces przetwarzania komputerowych danych, którego efektem jest uzyskanie naturalnego języka. Aby łatwiej zrozumieć działanie NLG, możemy sobie wyobrazić, że wygląda to podobnie do sytuacji, gdy próbujemy zmienić myśli w pismo. Bardzo dużo ilość czynników składa się na to, że jesteśmy w stanie stworzyć spójną i logiczną wypowiedź. Algorytmy działają podobnie: z ogromnej bazy danych tekstów selekcjonują oraz analizują, na podstawie zbieżności, najbardziej optymalny zestaw słów, który następnie układają w porządku językowym (w zależności od tego, w jakim języku treści chcemy uzyskać).

Tak właśnie powstaje NLG: poprzez szkolenie modelu statystycznego przy użyciu uczenia maszynowego, zazwyczaj na olbrzymiej ilości tekstów dostępnych w sieci. Rozwiązania, które umożliwia NLG zyskują coraz większą popularność, a generowanie tekstu zyskuje zastosowanie w różnych branżach związanych z tworzeniem tekstu. Możemy wyróżnić kilka modeli, które zajmują się generowanie tekstu: model Megatron, za który odpowiada Microsoft oraz Nvidia, określany jako największa sztuczna sieć neuronów na świecie, chiński model Wu Dao oraz najbardziej znany obecnie model NLG, czyli GPT-3 opracowany przez badaczy z firmy OpenAI.

Czym jest GPT-3 i dlaczego jest tak popularny?

GPT-3 (Generative Pre-trained Transformer 3, czyli generatywny wstępnie wytrenowany transformator) to model językowy stworzony przez firmę OpenAI, której współzałożycielem był Elon Musk. Nad powstaniem najnowszej wersji przez cały rok pracowało trzydziestu badaczy. Głównym zadaniem modelu jest generowanie treści tekstowych, a mówiąc ściślej: celem GPT-3 jest przewidywanie kolejnego słowa w tekście z zachowaniem logicznego toku. Najnowszy model, DaVinci, został „wytrenowany” na 570 gigabajtach tekstów (liczba została wyselekcjonowana przez badaczy OpenAI z 45 terabajtów danych!), co jest naprawdę ogromną ilością informacji.

W skład tych tekstów wchodzą dane ze zbioru Common Crawl (około 60%), a także miliony domen wyselekcjonowanych przez OpenAI w rodzaju Reddita, BBC czy Wikipedii. To właśnie ta ogromna ilość danych pozwala GPT-3 na rozumienie naszego języka. Jeśli chodzi o parametry, największy silnik, z którego można korzystać, DaVinci, posiada aż 175 miliardów połączeń sieci neuronowej (poprzedni model, GPT-2, posiadał 1,5 miliarda takich połączeń), które pozwalają modelowi na rozpoznawanie kontekstu tekstu oraz lepsze zrozumienie naszych intencji.

generowanie tekstu przyklad 1

Z jakich modeli korzysta GPT-3?

Silnik czy też modele GPT-3 potrafią generować i rozumieć język naturalny. Obecnie dostępne są cztery silniki: są to DaVinci, Curie, Babbage oraz Ada. Silniki różnią się poziomem zaawansowania oraz mocy, co sprawia, że mogą zostać wykorzystane do różnych zadań. DaVinci to najbardziej rozwinięty i dający najlepsze rezultaty w pracy z tekstem model, ale Ada jest z kolei najszybsza oraz generuje niższe koszty od pozostałych silników. Wszystko zależy od tego, w jakim celu chcemy korzystać z modeli oferowanych przez OpenAI.

“Szkolenie” i samodoskonalenie GPT-3

GPT-3 jest modelem autoregresyjnym, a więc za pomocą predykcji statystycznej potrafi się sam udoskonalać. Warto też dodać, że proces „szkolenia”, a więc analizy danych na podstawie zbieżności statystycznej, nie był nadzorowany przez OpenAI. Czyli firma nie wprowadzała żadnych filtrów, które miałyby w jakiś sposób ograniczać czy kierować trenowaniem przez algorytmy. Ta decyzja ma swoje plusy (modelu uczy się rozumieć świat tak jak człowiek) oraz minusy (wiele treści dostępnych w Internecie jest szkodliwa i nie przyczyni się w rozwoju modelu), jednak pamiętajmy, że ostatecznie to od nas zależy, jak będziemy korzystać z możliwości generowania tekstów.

Jakie są możliwości GPT-3?

W głównej mierze chodzi o generowanie wszystkiego, co posiada strukturę językową. Obecnie model najlepiej radzi sobie z językiem angielskim, ale prawdopodobnie w przyszłości użytkownicy innych języków będą mogli swobodniej korzystać z możliwości OpenAI. Zatem GPT-3 może odpowiadać na pytania, streszczać dłuższe teksty, pisać artykuły o dowolnej tematyce, posty na bloga, a nawet wiersze. Co więcej: potrafi nawet tworzyć kod komputerowy potrzebny do napisania aplikacji czy strony internetowej lub wygenerować zapis akordów i melodii w piosence. Wystarczy tylko wpisać w okienku polecenie, a algorytmy zrobią za nas resztę.

Jaka jest jakość efektów działania GPT-3? Jak powiedział sam prezes OpenAI, Sam Altman: „Szum wokół GPT-3 jest za duży. AI zmieni świat, ale GPT-3 to dopiero zwiastun”. Dlatego generowanie tekstu za pomocą technologii OpenAI robi dziś wrażenie, bo rzeczywiście możemy dzięki GPT-3 napisać artykuł, który nie będzie się specjalnie różnić od tekstu stworzonego przez publicystę czy dziennikarza (tak było w przypadku, gdy Guardian opublikował artykuł napisany w całości za pomocą GPT-3, którego edycja nie różniła się zupełnie od edycji tekstu redaktora). Pamiętajmy jednak, że możliwości oferowane przez GPT-3 nadal wymagają nadzoru człowieka.

AI coding scaled

Ilya Pavlov, Unsplash.com

 

Czy GPT-3 może zastąpić człowieka?

Cóż, na razie dziennikarze, copywriterzy, pisarze czy programiści mogą spać spokojnie: GPT-3 wciąż nie jest na tyle rozwiniętą technologią, aby mogła z dnia na dzień zastąpić wszystkich tych, którzy pracują z tekstem. Oczywiście wszyscy dobrze wiemy, jak szybki jest postęp w tego typu dziedzinach i znamy sytuacje w rodzaju tej, gdy Microsoft zwolnił sporą grupę pracowników (50 osób w USA i około 30 osób w Wielkiej Brytanii) odpowiedzialnych za dział newsowy, a ich zadania powierzył właśnie sztucznej inteligencji. Ale nawet w tym przypadku ktoś stale czuwał nad efektami pracy AI. Wciąż bez takiej kontroli nie da się sprawnie wykorzystywać możliwości generowania tekstów.

Przyszłość pokaże, czy maszyny zajmą się pisaniem tekstów i całkowicie przejmą rolę dziennikarzy czy copywriterów. Jedno jest pewne: sztuczna inteligencja na pewno jeszcze bardziej zmieni (bo cały czas zmienia) świat, który znamy obecnie. Weźmy chociażby modele językowe. GPT-3 już potrafi niesamowicie wiele, a powstały już takie modele jak opracowany przez Microsofta i Nvidię Megatron z ilością 530 miliardów parametrów (dla porównania GPT-3 posiada 175 miliardów) czy stworzony pod kierownictwem Pekińskiej Akademii Sztucznej Inteligencji chiński Wu Dao 2.0 z niewyobrażalną liczbą 1,75 biliona parametrów! Niestety obecnie nie można korzystać z żadnego z tych modeli, ale wszystko wskazuje na to, że przyszłość będzie należeć do sztucznej inteligencji.

Czy GPT-3 wpłynie na SEO i content marketing?

Jak zwykle w przypadku pytań dotyczących przyszłości trudno dać jednoznaczną odpowiedź. Jednak ciężko przypuszczać, aby generowanie tekstu w najbliższym czasie nie wpłynęło na sferę content marketingu. Kolejny rok może pokazać, w jakim kierunku będzie zmierzał rynek, ale nie ma wątpliwości, że takie narzędzia jak GPT-3 czy DALL·E (kolejny model firmy OpenAI, który tworzy zdjęcia za pomocą opisów tekstowych) będzie się mocno liczyć, jeśli chodzi o rozwój branży.

Bardzo możliwe, że w kolejnych latach generowanie contentu zgodnego z zasadami jeszcze bardziej semantycznego SEO będzie zupełną normą i nikogo nie będzie to dziwić. Jednak dziś, gdy dopiero wkraczamy w erę sztucznej inteligencji, nie jest to do końca oczywiste.

Z czasem jednak korzystanie z GPT-3 oraz innych modeli językowych w różnych branżach stanie się bardziej powszechne i wtedy dopiero będzie można oszacować, jak nowe technologie zmieniły pracę z tekstem oraz cały content marketingowy świat. Dlatego już dziś warto zadbać dostęp do najnowszych modeli językowych, aby nie zaspać, gdy rozpocznie się rewolucja. Już teraz możemy korzystać z możliwości GPT-3 w CONTADU. Poniżej przedstawimy, w jakiś sposób możemy szybko stworzyć tekst, który będzie można potem wykorzystać w strategii content marketingowej.

Generowane tekstu za pomocą GPT-3 w CONTADU

Na wstępie należy zaznaczyć, że metoda generowania tekstów wciąż jest eksperymentalna. Co to oznacza? Na przykład to, że daleko jej do perfekcji: nawet jeśli tekst wygląda poprawnie pod kątem gramatycznym, to może zawierać nieścisłości, błędy logiczny lub merytoryczne. To my, użytkownicy, musimy podjąć decyzję, czy tekst, który otrzymaliśmy będzie dla nas satysfakcjonujący. Aby tak było, potrzebna są odpowiednie podpowiedzi (prompts), które pozwolą GPT-3 na jak najbardziej optymalne spełnienie naszych oczekiwań.

Już teraz CONTADU pracuje nad stworzeniem szkiców, za pomocą których intencje użytkownika będą łatwiej przekazywane do generatora. Musimy też zadbać o jego edycję, a dopiero na samym końcu skupić się na optymalizacji pod kątem SEO. No i pamiętajmy też, że OpenAI wprowadza limity na ilość generowanego contentu, aby mieć pewność, że każdy tekst nadal powstaje przy ingerencji człowieka. I to chyba tyle, jeśli chodzi o wprowadzenie, czas generować tekst!

Krótki poradnik generowania tekstu w CONTADU

Zacznijmy od przejścia do asystenta generowania, który znajdziemy w module Content Writer. Następnie w okienku wpisujemy fragment teksty, na podstawie którego algorytmy wygenerują dalszą część.

01 przykladowy tekst

Wspomnieliśmy wcześniej, że obecnie GPT-3 najlepiej działa w języku angielskim. Jednak w CONTADU, dzięki zaawansowanemu tłumaczeniu maszynowemu, możemy generować teksty w ponad 120 językach, w tym również w polskim. Dlatego też możemy generować content w języku polskim. Spróbujmy to zrobić i sprawdźmy, jaki będzie rezultat.

02 jak wygenerować

Po kliknięciu algorytmy przygotowują tekst, który możemy dodać do swojego artykuły. W tym badaniu udało się nam uzyskać taki fragment:

03 wygenerowany tekst

Teraz, gdy tekst został już wygenerowany, możemy albo dodać go do naszego artykułu (klikając w zielony przycisk “Use text”) lub, jeśli nie o taki tekst nam chodziło, możemy spróbować jeszcze raz. Załóżmy, że tekst nam się podoba, a więc dodajmy go do naszego draftu. Możemy też wprowadzić zmiany (na przykład słowo “dniach” zamienić na “miesięcy”).

Spróbujmy teraz rozszerzyć fragment tekstu. Na przykład chcemy dopisać kilka zalet korzystania ze sztucznej inteligencji w content marketingu:

04 drugi tekst

A zatem zaznaczamy tekst, wybieramy opcję “[All] Expand”…

05 opcja

i generujemy dalszą część listy zalet.

06 expand rezultat

Warto też zwrócić uwagę na “temperaturę” generowanego tekstu. Możemy ją ustawiać, gdy klikniemy na termometr przy generowaniu lub rozszerzaniu tekstu. Im mniejsza temperatura, tym tekst jest bardziej poprawy, ale jest też znacznie krótszy i mniej unikalny. Jeśli temperatura jest wyższa, wtedy tekst również jest dłuższy oraz bardziej unikalny, ale może zawierać więcej niepoprawności. Tak więc to od nas zależy, jaki rodzaj tekstu chcemy uzyskać.

07 temperatura

Po stworzeniu tekstu za pomocą asystenta powinniśmy go zoptymalizować zgodnie z zasadami SEO, aby tekst mógł uzyskiwać świetne wyniki w Google. W module Content Writer nie powinno być z tym problemu.

Cóż, to na razie wszystko, co powinniśmy wiedzieć o generowaniu tekstu. Jeśli chcecie tworzyć branżowe artykuły, blogowe posty lub opisy produktów do sklepu internetowego za pomocą GPT-3, to zapraszamy was do testów CONTADU.