Rozmowy (o) przyszłości

Rozmowy (o) przyszłości

Chat GPT-3 miał być rewolucją i już się nią stał. A z rewolucjami bywa tak, że nie da się przewidzieć ich skutków

Należy zacząć od szybkiego rozbrojenia głównego mitu na temat upublicznionego w listopadzie narzędzia konwersacyjnego autorstwa OpenAI. Chat GPT-3 ani nie pojawił się na rynku, ani nie zmienił naszej rzeczywistości z dnia na dzień. Choć faktycznie szeregowy użytkownik internetu uzyskał do niego dostęp zaledwie kilka tygodni temu, w środowisku programistów, ale też ekspertów zajmujących się sztuczną inteligencją, o rozwoju tego narzędzia mówiło się od lat. Pisaliśmy zresztą o tym na łamach PRZEGLĄDU jesienią 2020 r., gdy Chat GPT-3 wszedł na dobrze nam znane dziennikarskie terytorium. Na łamach brytyjskiego dziennika „The Guardian” opublikowano wówczas felieton – nie suchą notkę informacyjną, ale tekst zawierający sformułowania nacechowane emocjonalnie – napisany właśnie przez ten duży model językowy (Large Language Model, LLM). Zadawaliśmy wówczas sobie i czytelnikom pytanie, czy to już koniec dziennikarstwa, skoro maszyny są w stanie pisać teksty o charakterze ocennym.

Konkluzja była jeszcze wtedy dość optymistyczna (z ludzkiego punktu widzenia). Na korzyść homo sapiens przemawiał fakt, że modelowi wciąż trzeba było ręcznie podawać wskazówki, jego odpowiedzi były płytkie i mało przekonujące, a od generalnej sztucznej inteligencji, czyli technologii zdolnej całościowo operować autonomicznie, miały nas dzielić jeszcze dekady.

Prosty, ale skomplikowany

Minęły jednak nieco ponad dwa lata i powodów do optymizmu ubywa. Chat GPT-3 już wywołał rewolucję w użytkowaniu internetu. Z punktu widzenia użytkownika końcowego budowę ma bardzo prostą. Jeśli akurat uda nam się do niego dostać, bo serwery OpenAI są permanentnie przeciążone, możemy wydać mu właściwie dowolne polecenie, które da się zrealizować w formie tekstowej. Chatbot odpowie na pytania ściśle informacyjne, ale też wykona działania kreatywne. Jest w stanie napisać wiersz w konkretnym stylu, słowa piosenki przypominające twórczość znanych wykonawców, ba, scenariusz odcinka serialu. Radzi sobie z łamaniem zasady decorum, dobrze mieszając gatunki, jak w przypadku napisania kilku scen znanego amerykańskiego sitcomu „The Office”, które wyjątkowo działy się w siedzibie Prawa i Sprawiedliwości. Momentami zaproponowane gagi były czerstwe, ale całość miała nie tylko sens, lecz również widoczne humorystyczne zabarwienie. Nawet więc jeśli GPT-3 nie oferuje nam jeszcze idealnej nowej wersji rzeczywistości, doskonale sobie radzi z przeciętnej jakości zamiennikami. Cóż, od czegoś trzeba zacząć.

Samo to jest już zjawiskiem wartym analizy, bo przecież nie na każdym etapie ludzkiej pracy trzeba wymyślać rzeczy na nowo albo tworzyć oryginalne treści. Najlepszym przykładem płaszczyzny, na której liczy się przede wszystkim zrozumienie i częściowe przynajmniej odtworzenie tego, co już ludzkości znane, jest edukacja. I właśnie apokaliptyczne wizje przyszłości szkoły pojawiły się po udostępnieniu GPT-3 za darmo. Chatbot oczywiście nie jest w stanie zrobić niczego sam, a na swoim bieżącym poziomie rozwoju nie zrobi też niczego, czego jeszcze nie umie człowiek. To pierwsze jest jednak marnym pocieszeniem, to drugie zaledwie kwestią czasu.

Dlatego takie opinie jak Stephena Marche’a, kanadyjskiego kulturoznawcy, który na łamach magazynu „The Atlantic” w grudniu 2022 r. alarmował o nadchodzącej śmierci tradycyjnego modelu uczenia w naukach społecznych i humanistycznych, nie są już ani odosobnione, ani do końca pozbawione racji. Czy naprawdę sztuczna inteligencja zabije szkołę, uniwersytet, a w dalszej perspektywie ludzkość?

Kreatywni mogą wyginąć

Jeśli cokolwiek z tych procesów się wydarzy, to zapewne nieprędko. Oczywiście zdanie to może zaraz brzydko się zestarzeć, bo rozwój LLM-ów i tzw. generatywnej sztucznej inteligencji jest znacznie szybszy, niż się wydaje większości komentatorów, ale na potrzeby tego tekstu załóżmy, że w tej chwili tradycyjny model oświaty ma jeszcze szansę przetrwać. Żeby tak się stało, musi, no cóż, bardzo szybko się zmienić. GPT-3 jest przede wszystkim doskonałym narzędziem syntetycznym, jego „wkład” to skomasowana zawartość całego internetu, połączona m.in. z angielską wersją Wikipedii i dwiema bazami danych zawierającymi nieopublikowane nigdzie indziej powieści. Nie jest jeszcze na stałe podłączony do sieci, jego kontakt ze światem zewnętrznym zakończono w lipcu 2021 r., czyli chociażby o wojnie w Ukrainie nie wie nic.

Ponieważ opiera się na wiedzy internetowej, to jeśli informacje są szczątkowe, odpowiedź będzie ich wiernym odbiciem. Na przykład autora tego tekstu GPT-3 myli z innymi członkami rodziny, tworząc amalgamat wszystkich ich życiorysów. Problem w tym, że zadania w szkole lub na uczelni rzadko dotyczą tematów, o których w internecie jest niewiele albo nic. A że chatbot pisze z sensem, do odrabiania zadań domowych nadaje się doskonale. Eseje przez niego produkowane są dość płytkie, odpowiedzi często nie prowadzą do konkretnych konkluzji, wnioski są rozmyte w bezpiecznym, neutralnym języku, ale przecież nie każda praca zaliczeniowa musi być najwyższej jakości. Wielu uczniów czy studentów chce tylko zdać, a z GPT-3 to zadanie banalnie proste.

Chatbot rozwiązał już testy będące częścią programu MBA w prestiżowej Wharton Business School na University of Pennsylvania, zdał egzamin stanowiący podstawę do uzyskania kwalifikacji prawniczych w USA, został nawet wymieniony jako współautor artykułu naukowego w uznanej na całym świecie bazie Sage. To ostatnie jednak można uznać za mało wyrafinowany chwyt marketingowy, bo gdyby naukowcy podchodzili z taką samą rzetelnością do poprzednich rewolucji technologicznych, współautorem prawie każdego artykułu powinien być internet, nie mówiąc już o poszczególnych programach do obróbki i wizualizacji danych. GPT-3 na początku wypluwa z siebie mało oryginalne teksty, ale w przeciwieństwie do poprzednich narzędzi opartych na sztucznej inteligencji z każdym kolejnym podejściem radzi sobie lepiej.

Jego przełomową, a przez to bardzo niebezpieczną cechą jest zdolność do autokorekty i dopasowywania przekazu do rozmówcy. GPT-3 analizuje treść kolejnych pytań zadawanych mu przez konkretnego użytkownika i na tej podstawie produkuje odpowiedź najbardziej pożądaną przez rozmówcę. W dłuższej perspektywie trzeba zatem rozważyć kwestie manipulacji i dezinformacji, ale to już temat na osobny tekst i osobną dyskusję.

Faktem jest, że nauczyciel, wykładowca czy egzaminator, z reguły przepracowany i przeciążony zbyt wielką liczbą prac do sprawdzenia, może nie zauważyć, że ma do czynienia z produktem chatbota. Istnieją już wprawdzie aplikacje pozwalające zidentyfikować działanie LLM-ów, ale rynek nadąża i za tym, oferując oprogramowanie pozwalające… oszukać cyfrowych weryfikatorów.

Stephen Marche i wielu innych naukowców uważa, że to droga jednokierunkowa, na końcu której czeka śmierć szeroko pojętej humanistyki. Umiejętność precyzyjnego i elokwentnego formułowania argumentów była i jest podstawą nauczania historii, socjologii czy antropologii. Można oczywiście nadal tego wymagać w warunkach egzaminacyjnych, bez dostępu do technologii, ale jeśli uczniowie czy studenci nie będą ćwiczyć tego wcześniej, taka forma sprawdzenia ich umiejętności nie będzie miała żadnego sensu, również dlatego, że sami z siebie nie będą już tworzyć tekstów nigdzie poza salą egzaminacyjną. Marche zwraca uwagę, że ewolucja technologiczna prowadząca do zredukowania tekstu jedynie do przekazanej informacji ściągnie na nas najróżniejsze katastrofy, od zwiększonej polaryzacji, poprzez rosnący dystans między światami humanistyki i technologicznych start-upów, aż do zaniechania fundamentalnie ważnych dyskusji na temat etyki, w tym etyki sztucznej inteligencji. Nie mówiąc o ogólnych kosztach społecznych, takich jak gigantyczna automatyzacja prowadząca ostatecznie do wyeliminowania większości zawodów kreatywnych, w tym dziennikarzy, naukowców, artystów.

Hipoteza spinacza

Są jednak tacy, którzy w tej rewolucji widzą szansę, a nie zagrożenie. „Jako osoba, której raczej obce są procesy twórcze, potrafię sobie wyobrazić, że chwile działania kreatywnego przeplatają się w nich z bardziej zadaniowymi czynnościami, jak synteza własnych myśli czy klarowniejsze ich wyrażanie. LLM-y świetnie sobie z tym radzą”, mówi Piotr Grudzień, współzałożyciel firmy Quickchat AI. Oferuje ona firmom technologię opartą na sztucznej inteligencji, dzięki której mogą one tworzyć własne narzędzia konwersacyjne, tzw. inteligentnych asystentów. „Jednak to, co sprawia, że nasza twórczość jest faktycznie oryginalna, to pierwiastek własnej inicjatywy – idea czy połączenie faktów, którego dokonuje człowiek. Na każdą z tych idei sztuczna inteligencja potrafiłaby sama wpaść, ale tylko po otrzymaniu jednoznacznego polecenia ze strony człowieka. Póki więc nie będzie w pełni wolnym podmiotem, pozostanie co najwyżej genialnym narzędziem, które jednak musi pasywnie czekać na instrukcje”.

Kluczowe w tej wypowiedzi jest oczywiście pojęcie wolności sztucznej inteligencji. Są bowiem eksperci, którzy uważają, że już teraz LLM-y byłyby w stanie stworzyć dzieło nieznane ludzkości. Nie znaczy to, że operują nową technologią czy dokonają przełomowego odkrycia, ale mogą po prostu zobaczyć coś, czego człowiek nie zdołałby dostrzec. Dobrym przykładem są tu nieudowodnione jeszcze twierdzenia matematyczne, do których udowodnienia nie potrzeba niczego poza silniejszą mocą obliczeniową. Taki model mógłby zidentyfikować korelacje niedostępne dla człowieka, bo ludzki mózg nie jest w stanie ich zanalizować, a komputer, wykładniczo szybciej i dokładniej przeprowadzający takie procesy – już tak.

Sztuczna inteligencja nie zacznie niezależnie myśleć w sposób, w jaki robią to ludzie – choć to mała pociecha. Będzie natomiast coraz skuteczniej dążyć do realizacji swojej funkcji obiektywnej, czyli celu, do osiągnięcia którego została zaprogramowana. Związane z tym ryzyko dla cywilizacji może być teoretycznie gigantyczne. Opisuje to tzw. hipoteza spinacza, w której sztuczna inteligencja zostaje zaprogramowana do maksymalizacji produkcji spinaczy. W procesie analizy dostępnych danych dochodzi do wniosku, że największą przeszkodą w zwiększeniu produkcji są ludzie, którzy mogą ją po prostu wyłączyć, więc ostatecznie ich eliminuje, przerabiając wszystkie atomy na Ziemi i w Układzie Słonecznym na spinacze. To oczywiście ogromne uproszczenie, ale skutecznie ilustruje tę bardziej prawdopodobną wersję konfliktu pomiędzy ludźmi a robotami.

Wciąż jesteśmy daleko od stworzenia systemów, które mogłyby wymknąć się spod kontroli w taki sposób, jaki widzimy w filmach. Czym innym jest pozwolenie, by chatbot użył wyszukiwarki i znalazł dla nas najbardziej optymalne bilety lotnicze z Londynu do Nowego Jorku, a czym innym autonomiczne nawigowanie w naszym analogowym świecie. A to byłoby konieczne, żeby sztuczna inteligencja mogła nas zdominować, jak mówi Piotr Grudzień. Natomiast anegdota o spinaczach dobrze pokazuje, że łatwo powiedzieć maszynie, co chcemy optymalizować, a dużo trudniej przekazać to, co dla ludzi jest oczywiste i stanowi fundament funkcjonowania społeczeństwa: zdrowy rozsądek, kulturę czy moralność.

Jeśli więc w czymkolwiek szukać nadziei dla edukacji jako takiej, nie tylko humanistycznej, to właśnie w tych ostatnich słowach. Sztuczną inteligencję trzeba wciąż trenować, a potem utrzymać pod kontrolą i tutaj bez tradycyjnej humanistyki się nie obejdzie.

O konieczności łączenia tych dwóch światów naukowych mówił już w 2017 r. Daniel Franklin z tygodnika „The Economist”, wskazując na dramatyczny niedobór (względem potrzeb rynkowych) antropologów cyfrowych, czyli ekspertów od interakcji człowieka ze światem maszyn. Potrzeba ich coraz więcej, nie tylko ze względu na tworzenie nowych miejsc pracy w Dolinie Krzemowej. Może bowiem się okazać, że to oni będą ostatnią linią obrony ludzkości przed supremacją sztucznej inteligencji. Czasu jest coraz mniej, bo postęp technologiczny przyśpiesza. A szansa na zharmonizowanie celów maszyn i ludzi będzie tylko jedna. Jeśli ją zmarnujemy, innego końca świata nie będzie.

m.mazzini@tygodnikprzeglad.pl

Fot. Shutterstock

Wydanie: 09/2023, 2023

Kategorie: Technologie

Napisz komentarz

Odpowiedz na treść artykułu lub innych komentarzy