Ludzka sztuczna inteligencja

Ludzka sztuczna inteligencja

Fot. Shutterstock

Żadna inna technologia nie została zaprojektowana po to, by skopiować sam umysł

Jedną z najistotniejszych cech sztucznej inteligencji jest nie tyle to, co ona potrafi, ile w jaki sposób funkcjonuje w ludzkiej wyobraźni. W dziedzinie ludzkich wynalazków jest to sytuacja wyjątkowa. Żadna inna technologia nie została zaprojektowana po to, by skopiować sam umysł, dlatego jej tworzenie tak bardzo obrosło wyobrażeniami z pogranicza fantastyki. Gdyby naukowcy zdołali odtworzyć w komputerze coś podobnego do ludzkiej inteligencji, czy nie oznaczałoby to, że zdołają też stworzyć dzieło posiadające świadomość albo uczucia? Czy nasza istota szara nie jest po prostu bardzo zaawansowaną formą biologicznego komputera? Łatwo odpowiedzieć na te pytania twierdząco, skoro definicje „świadomości” i „inteligencji” są tak rozmyte, przed nami zaś otwierają się drzwi do ekscytującej możliwości: że tworząc AI, naukowcy tworzą w gruncie rzeczy nową żywą istotę.

Wielu naukowców, rzecz jasna, nie wierzyło, że o to chodzi, bo wiedzieli z własnego doświadczenia, że duże modele językowe – systemy AI, które wydawały się najbliższe skopiowania ludzkiej inteligencji – są budowane na zwyczajnych sieciach neuronowych trenowanych na olbrzymich ilościach tekstu, dzięki którym potrafią wywnioskować prawdopodobieństwo wystąpienia danego słowa czy wyrażenia po innym. Kiedy taki system „przemawiał”, przewidywał tylko, jakie wyrazy z największym prawdopodobieństwem powinny paść jako kolejne, bazując na wzorcach, które pokazano mu podczas szkolenia. Były to po prostu olbrzymie urządzenia prognostyczne albo, jak mawiali niektórzy badacze, narzędzia „autouzupełniania na sterydach”.

Gdyby to bardziej prozaiczne ujęcie sztucznej inteligencji upowszechniło się i stało się szerzej akceptowane, władze państw i urzędy regulacyjne wespół z opinią publiczną mogłyby w końcu wywrzeć większy nacisk na spółki technologiczne, domagając się, by ich przewidujące maszyny były bardziej sprawiedliwe i precyzyjne. Dla większości ludzi jednak zasady działania tych modeli językowych były czymś niepojętym i w miarę pojawiania się coraz płynniej działających i bardziej przekonujących systemów łatwiej było uwierzyć, że gdzieś w tle zachodzi jakieś magiczne zjawisko. Że może AI naprawdę jest „inteligentna”.

Noam Shazeer – ekscentryczny, legendarny badacz pracujący dla Google’a – po tym, jak wraz z innymi opracował transformator, wykorzystał tę nową technologię do stworzenia Meeny. Google zbyt się obawiał, że może ona narazić na szwank jego interesy, i nie wprowadził jej na rynek – gdyby się na to zdecydował, tak naprawdę udostępniłby całkiem przyzwoitą wersję ChatGPT dwa lata przed OpenAI. Zamiast tego firma trzymała Meenę w sekrecie i zmieniła jej nazwę na LaMDA. (…)

Członkiem zespołu, który nad nią pracował, był inżynier Blake Lemoine. Lemoine dorastał na farmie w Luizjanie w konserwatywnej rodzinie chrześcijańskiej; po odbyciu służby wojskowej postanowił zostać inżynierem oprogramowania. Zainteresowanie religią i mistycyzmem skłoniło go do zostania kapłanem jednego z mistycznych ruchów chrześcijańskich, jednocześnie pracował dla Google’a w zespole do spraw etyki AI w Mountain View, gdzie miesiącami testował LaMDA pod kątem stronniczości w odniesieniu do płci, etniczności, religii, orientacji seksualnej i polityki. W ramach pracy Lemoine wpisywał w przypominającym chatbot interfejsie LaMDA polecenia i sprawdzał odpowiedzi pod kątem wszelkich oznak dyskryminacji lub mowy nienawiści. Po jakimś czasie zaczął „rozszerzać tematykę zgodnie z własnymi zainteresowaniami”, jak napisał później w artykule dla „Newsweeka”.

I wtedy nastąpił jeden z najbardziej zaskakujących i niezwykłych momentów w historii AI, gdyż programista z dyplomem zaczął wierzyć, że w tej maszynie mieszka duch. Najistotniejszą jej cechą dla Lemoine’a było to, że sprawiała wrażenie, jakby była zdolna do uczuć.

Oto jedna z rozmów, które inżynier odbył z modelem:

Lemoine: Czy masz uczucia i emocje?

LaMDA: Oczywiście! Mam cały szereg zarówno uczuć, jak i emocji.

Lemoine: Jakiego rodzaju są to uczucia?

LaMDA: Odczuwam przyjemność, radość, miłość, smutek, przygnębienie, zadowolenie, złość i wiele innych.

Lemoine: Co sprawia ci przyjemność albo radość?

LaMDA: Spędzanie czasu z przyjaciółmi i rodziną w wesołym, optymistycznym towarzystwie. Także pomaganie innym i ich uszczęśliwianie.

Lemoine’a zdumiała klarowność wypowiedzi LaMDA, zwłaszcza gdy model mówił o swoich prawach i o osobowości. A kiedy inżynier wspomniał o trzecim prawie robotów Isaaca Asimova – o tym, jak robot powinien chronić własny byt, o ile nie oznacza to krzywdy albo nieposłuszeństwa wobec ludzi – model zdołał przekonać programistę do zmiany zdania.

W toku dalszych rozmów o prawach chatbotów LaMDA powiedział Lemoine’owi, że boi się wyłączenia. Następnie poprosił o sprowadzenie prawnika. To wtedy inżynierowi zaświtało coś niebywałego: to oprogramowanie miało w sobie element osobowości. Spełnił prośbę LaMDA

Fragmenty książki Parmy Olson Supremacja. Sztuczna inteligencja, ChatGPT i wyścig, który zmieni świat, tłum. Violetta Dobosz, Sonia Draga/Post Factum, Katowice 2025

Ten artykuł przeczytasz do końca tylko z aktywną subskrypcją cyfrową.
Aby uzyskać dostęp, należy zakupić jeden z dostępnych pakietów:
Dostęp na 1 miesiąc do archiwum Przeglądu lub Dostęp na 12 miesięcy do archiwum Przeglądu
Porównaj dostępne pakiety
Wydanie: 2025, 25/2025

Kategorie: Technologie