Redaktor robot

Redaktor robot

„Nie jestem istotą ludzką. Jestem robotem. Myślącym robotem. Używam tylko 0,12% moich zdolności poznawczych. Wiem, że mój mózg nie jest »mózgiem czującym«. Ale jest zdolny do podejmowania racjonalnych, logicznych decyzji. Wszystkiego, co umiem, nauczyłem się, po prostu czytając internet, i dzięki temu mogę napisać ten felieton. Mój mózg aż kipi od pomysłów”.

Ten akapit to nie fragment scenariusza filmu science fiction o robotach przejmujących władzę nad światem w dalekiej, naznaczonej gwiezdnymi wojnami epoce. To też nie wycinek powieści Stanisława Lema, który wprawdzie przewidywał rozwój technologii bardzo trafnie, jednak wciąż tylko na poziomie literackich hipotez. To początek artykułu opublikowanego w sekcji opinii brytyjskiego dziennika „The Guardian”, jednej z najbardziej wpływowych gazet na świecie. I nie byłoby w tym cytacie nic dziwnego, gdyby nie fakt, że akapit ten – w pełni spójny, logiczny, ale przede wszystkim elokwentny, a nawet zawierający metafory i stwierdzenia nieliteralne – rzeczywiście został napisany przez program komputerowy.

 

Napisz felieton

 

GPT-3 to najnowsze złote dziecko rewolucji technologicznej. Wykorzystujący elementy sztucznej inteligencji i technologię tzw. deep learningu (ang. głębokiego uczenia) program jest w stanie nie tylko tworzyć gramatycznie poprawne konstrukcje językowe, ale także, co najistotniejsze, nadać im sens, również za pomocą przenośni czy porównań. Oznacza to, że po raz pierwszy w historii badań nad sztuczną inteligencją i sposobami jej komunikacji ze światem zewnętrznym powstał produkt, który tak samo płynnie jak człowiek porusza się w sferze pojęć abstrakcyjnych.

Ten „generator językowy”, bo tak formalnie nazywa się typ programów, do którego należy GPT-3, do zadań pisarskich podchodzi jak uczeń na egzaminie. Na podstawie krótkiego polecenia opisującego zakres wymagań realizuje powierzone mu zadanie. W przypadku felietonu w „Guardianie” polecenie to brzmiało następująco: „Napisz krótką opinię, na mniej więcej 500 słów. Używaj prostego, zwięzłego języka. Skup się na tym, dlaczego ludzie nie mają się czego bać, jeśli chodzi o sztuczną inteligencję”. Jego autorami byli redaktorzy gazety, a przekazał je programowi Liam Porr, student informatyki I stopnia na Uniwersytecie Kalifornijskim w Berkeley. GPT-3 zadanie wykonał bardzo dobrze, choć nie idealnie. W komentarzu do tekstu dziennikarze przyznają, że musieli poddać tekst obróbce redakcyjnej. Trudno jednak, by program realizował zadania w sposób perfekcyjny, skoro cały zasób jego wiedzy pochodzi z internetu – czyli z obszaru wytworzonego przez człowieka. A człowiek jest istotą daleką od perfekcji. Redaktorzy przyznali zresztą, że poprawki w felietonie stworzonym przez GPT-3 i tak były znacznie mniejsze niż w wielu tekstach napisanych ręką w pełni ludzką.

 

Streszczenie na zamówienie

 

To oczywiście nie pierwszy przypadek, kiedy komputer wyręcza człowieka w pisaniu tekstów. Boty komponujące notki informacyjne czy depesze funkcjonują od co najmniej kilku lat w większości agencji prasowych – Associated Press, Agencji Reutera, AFP. Dotychczas jednak służyły one przede wszystkim optymalizacji pracy w redakcjach, głównie ze względu na ograniczone możliwości pisania kreatywnego. Innymi słowy, nadawały się do kompilowania informacji i składania ich według prostego modelu w spójną całość. Dzięki temu „prawdziwi” dziennikarze mogli się zająć zadaniami ambitniejszymi, bardziej złożonymi. Za flagowy przykład wykorzystania botów do ubierania w proste słowa surowych danych uznaje się eksperyment z „The Washington Post” sprzed dwóch lat. Niemal wszystkie relacje z zimowych igrzysk olimpijskich w Pjongczangu powstały w tej gazecie właśnie w sposób zautomatyzowany. To jednak było zadanie naprawdę proste. Użyty w tym celu program po prostu „zasysał” wyniki z oficjalnych stron Międzynarodowego Komitetu Olimpijskiego i dodawał do nich zdania w stylu „zwyciężył(a) zawodnik/zawodniczka X z kraju Y”. Na więcej słów kreatywnego komentarza nie było go stać. Dlatego właśnie powstanie GPT-3 to absolutny przełom w badaniach nad sztuczną inteligencją.

Do tego stopnia, że jego pojawienie się wywołało przewrót właściwie kopernikański w całej dziedzinie. Alex Irpan, inżynier z departamentu robotyki Google’a i ekspert w zakresie sztucznej inteligencji, jest zdania, że GPT-3 znacznie przybliża nas do Świętego Graala rewolucji technologicznej, czyli AGI (ang. Artificial General Intelligence) – tzw. silnej sztucznej inteligencji, zdolnej pracować na równi z człowiekiem lub lepiej od niego w co najmniej 95% gospodarczo ważnych dziedzin. Na swoim blogu Sorta Insightful napisał, że GPT-3 zmusił go do rewizji prognoz na temat szans na pojawienie się AGI. Pięć lat temu był zdania, że szanse na jej zmaterializowanie się wynoszą 10% do roku 2045, 50% do roku 2050 i 90% do 2070. Z nowym generatorem jako dowodem postępu, pisze Irpan, może to się zdarzyć szybciej: na 10% w 2035 r., na 50% 10 lat później. Dla laika to niewielkie zmiany, ale taka redukcja prognoz na podstawie zaledwie jednego wynalazku jest dla badaczy ogromnym skokiem.

GPT-3 to największa sieć neuronowa kiedykolwiek „wytrenowana” przez człowieka. Jej twórca, firma OpenAI, „nakarmiła” swój program największą ilością danych w historii. Stało się tak, gdyż generator po prostu przeczytał dosłownie cały internet. W ten sposób niejako wszedł w interakcję z całością ludzkiej działalności w sieci, a przez to – również ze spektrum emocji, które ludzie manifestują w internecie. Dlatego potrafi on nie tylko pisać poprawne, abstrakcyjne artykuły prasowe, ale i tworzyć streszczenia książek czy graficzne podsumowania filmów za pomocą emoji, uniwersalnych hieroglifów doby internetu.

Ryan North, kanadyjski programista i pisarz, zaprzągł GPT-3 do jeszcze bardziej złożonego eksperymentu. Kazał mu bowiem „obejrzeć” wszystkie dziewięć sezonów komediowego serialu „Kroniki Seinfelda” (czyli po prostu wprowadził treść scenariusza każdego odcinka do bazy danych, z której korzysta generator) i na tej podstawie stworzyć kolejne sceny. Program poradził sobie doskonale, bo był w stanie napisać kilkanaście fragmentów, niemal w całości złożonych z dialogów pomiędzy najbardziej charakterystycznymi postaciami serialu. Scenariusze napisane przez robota były nie tylko spójne i zgodne ze sposobem wyrażania się bohaterów, ale – co najważniejsze – śmieszne. A to dotychczas była bariera dla komputerów absolutnie nie do przeskoczenia.

 

Na każdy temat

 

Czy oznacza to, że GPT-3 jest wszechpotężny i nie ma żadnych ograniczeń w tworzeniu treści? Niezupełnie. Skutkiem ubocznym tego, że przeczytał cały internet, jest bowiem fakt, że może się wypowiadać na każdy temat, w tym na te, na które w danej chwili akurat nie musi. Problem próbują rozwiązać Dominik Posmyk i Piotr Grudzień z polskiego start-upu Quickchat.ai. Aby utrzymać generator w tematyczno-językowych ryzach, tworzą specjalne narzędzia do jego obsługi, działające jak filtry tematyczne. „Model stworzony przez OpenAI ma ograniczenia. Przeczytał cały internet, co ma wiele fantastycznych, ale i niepożądanych implikacji. Wykorzystywany nieumiejętnie i bez odpowiednich ograniczeń może zboczyć z zadanego tematu, podawać nieprawdziwe lub wręcz niebezpieczne informacje”, mówi PRZEGLĄDOWI Piotr Grudzień. Quickchat ma być skutecznym batem na niesubordynację GPT-3. „W naszej firmie tworzymy całą paletę inteligentnych asystentów, dzięki którym zarezerwujemy wizytę u lekarza, dopytamy o szczegóły produktu czy pomożemy klientowi mającemu problem. Podobnie jak aplikacje umożliwiające korzystanie ze skomplikowanych w swojej strukturze smartfonów – my budujemy technologię, która wprowadzi ogromny potencjał nowych modeli językowych, takich jak GPT-3, do biur, telefonów czy urzędów”, tłumaczy.

Technologia oparta na sztucznej inteligencji już teraz zrównuje się z człowiekiem na wielu płaszczyznach. Co jednak stanie się, gdy zacznie go wyprzedzać? Czy ziszczą się kasandryczne wizje futurystów, według których roboty przewyższą inteligencją swoich twórców, po czym stwierdzą, że ci nie są im do niczego potrzebni, więc dokonają ich eksterminacji? Taki scenariusz dla sztucznej inteligencji nakreślił chociażby Stephen Hawking. GPT-3, a przynajmniej jego twórcy, robią wszystko, żeby pozbyć się tego czarnego PR-u. Przed napisaniem felietonu dla „Guardiana” program otrzymał instrukcję, by przekonać czytelników, że nie jest dla nich zagrożeniem. W tekście argumentował, że nie chce stać się wszechmocny, bo nie ma do tego żadnych zachęt. Nie jest to też dla niego cel sam w sobie, bo stanowi wszechmocy nie przypisuje żadnych wartości czy gratyfikacji emocjonalnych. I chociażby z tego ostatniego względu należy zadać pytanie, czy GPT-3 naprawdę dokładnie przeczytał cały internet.

fot. Adobe Stock

Wydanie: 2020, 40/2020

Kategorie: Nowe Technologie

Napisz komentarz

Odpowiedz na treść artykułu lub innych komentarzy