Prawa wyborcze robota?

Prawa wyborcze robota?

Sztuczna inteligencja – nadzieja czy zagrożenie dla demokratycznych wyborów?

Nazywa się Nigel. Na początku będzie chciał możliwie najlepiej cię poznać. Dowiedzieć się, jak postrzegasz rzeczywistość, co jest dla ciebie najważniejsze. O czym marzysz i na czym opiera się twoja hierarchia wartości. A przede wszystkim – czego oczekujesz. Od siebie, od życia i od polityków. Później będzie obserwował twoje działania, podejmowane przez ciebie decyzje. Zobaczy, jakie hasła wyszukujesz w internecie, jakie produkty zamawiasz w wirtualnych sklepach. Będzie śledził, w jakich wydarzeniach uczestniczysz. W bardziej ekstremalnej wersji może kiedyś zmierzyć ci temperaturę i ciśnienie na wiecu politycznym lub w czasie oglądania wieczornych wiadomości. Zarejestruje, jakie komunikaty wywołują u ciebie najsilniejsze emocje. Na koniec przeanalizuje wszystkie dane i w dniu wyborów stanie z tobą za kotarą. Powie, który z dostępnych kandydatów najczęściej kłamał w kampanii, a który ma poglądy zbieżne z twoimi. Podpowie, przy którym nazwisku postawić krzyżyk. Nawet jeśli go o to nie zapytasz.

Ten opis nie dotyczy natrętnego trenera personalnego czy jednego z popularnych coachów. Nigel to nie człowiek – to sztuczna inteligencja. A dokładniej rzecz ujmując, kompletna sztuczna inteligencja (ang. Artificial General Intelligence, AGI). Od innych rozwiązań w tej dziedzinie różni się tym, że nie został stworzony do realizowania konkretnych zadań czy wykonywania zawężonych poleceń. Tak przynajmniej twierdzą odpowiedzialni za niego programiści z firmy Kimera Systems w amerykańskim Portland. Ma też jako pierwszy ogarnąć całość ludzkiego życia. Zdolny do pobierania danych ze wszystkich urządzeń, od smartfonów po pralki i lodówki, zintegrowany z każdym inteligentnym sprzętem w naszym domu, stanie się perfekcyjną wersją osobistego asystenta.

Dlatego w chwili pierwszego uruchomienia będzie daleki od doskonałości. Jak podkreśla Mounir Shita, jeden ze współtwórców Nigela i szef Kimera Systems, trzeba będzie tego asystenta „wychować” – tak jak wychowujemy swoje dzieci. Pokazać mu pewne wzorce zachowań, które sami uznajemy za właściwe, i czekać, aż je zreplikuje. Jako system o totalnym zasięgu i działaniu ma swobodnie funkcjonować w całej dostępnej dla niego sieci, a nie na jej wybranym odcinku. Nie będzie można go wyłączyć czy odciąć mu dostępu do konkretnego kawałka danych. Niczym Jarvis, buntująca się sztuczna inteligencja z filmów o Iron Manie, z czasem przekształci się w niezależny byt. Który, dodajmy, wie o nas wszystko, nawet więcej niż my sami. Innymi słowy, Nigel będzie idealną sekretarką. Taką, która realizuje wszystkie polecenia szefa, nawet te, których jeszcze nie wydał.

Opowiadając o swoim najbardziej medialnym projekcie, Mounir Shita nie kryje dumy. Przede wszystkim dlatego, że we własnej ocenie wyprzedził resztę świata o prawie pół wieku. Kiedy w 2017 r. organizatorzy dwóch wiodących międzynarodowych konferencji dotyczących AI zapytali uczestników, kiedy ich zdaniem ludzkość doczeka się pierwszej naprawdę „całościowej” sztucznej inteligencji, większość wskazała rok 2060. Shita twierdzi, że on i jego zespół tę przeszkodę już pokonali. Co więcej, to niejedyny przełom, jaki planują przy użyciu Nigela. Marzą, by z czasem ich superasystent spenetrował cały globalny internet, połączył się z każdym interaktywnym urządzeniem i, jak możemy przeczytać na stronie Kimera Systems, zmienił „światową gospodarkę oraz nadał nowe znaczenie byciu człowiekiem na Ziemi”.

Zwłaszcza to ostatnie hasło przykuwa uwagę. Nie tylko z powodu utopijnego tonu, zapowiadającego bliżej nieokreśloną redefinicję człowieczeństwa i rewolucję w stosunkach międzyludzkich. Shita chce bowiem wykorzystać Nigela jako pierwsze rozwiązanie technologiczne wpływające na kształt demokracji od strony wyborcy. W licznych wywiadach podkreśla, że jego wynalazek nie tylko pozwoli na kolejny milowy krok w rozwoju technologii, ale przede wszystkim udoskonali coś, co do tej pory wydawało się na wskroś ludzkie – nasze wybory polityczne.

Zbierając dane na temat naszych interakcji, zarówno z maszynami, jak i z innymi ludźmi, Nigel dogłębnie pozna nasz system wartości, nasze poglądy i percepcję świata wokół nas. Zrozumie nasze cele i marzenia. Jeśli dodamy do tego praktycznie nieograniczony dostęp do danych i dużo większą od ludzkiego mózgu moc obliczeniową, będzie też doskonałym narzędziem do weryfikowania deklaracji polityków. Jednym słowem, stanie się wyrocznią w kwestii prawdy i fałszu. Dzięki temu, kiedy przyjdzie nam stawić się w lokalu wyborczym, Nigel wybierze idealnego dla nas kandydata. Tylko czy to, co idealne dla jednostki, będzie naprawdę najlepsze dla społeczeństwa?

Przypadek Kimera Systems i niebezpiecznie ambitnych planów jej prezesa to tylko jeden z kontrowersyjnych wątków w debacie o wpływie sztucznej inteligencji na demokrację. W wymarzonym przez Shitę idealnym scenariuszu to AGI w praktyce decydowałaby, na kogo mamy głosować. Tylko kto wówczas byłby prawdziwym wyborcą? Uczący się algorytm czy wciąż jednostka ludzka?

Prof. Amy Webb, filozofka i futurystka z New York University, podkreśla, że to niejedyny dylemat etyczny związany z upolitycznieniem sztucznej inteligencji. Przy braku kontroli nad AGI człowiek nie tylko zostałby pozbawiony podmiotowości w samym akcie wyborczym, ale również straciłby kontrolę nad wizją przyszłości.

„Co stałoby się, gdyby kontrolująca internet sztuczna inteligencja pchnęła całą ludzkość w kierunku czegoś, czego nie umiemy sobie nawet wyobrazić?”, pyta retorycznie prof. Webb na łamach „MIT Technological Review”. Teoretycznie bowiem mogłoby dojść do sytuacji, w której w pełni już rozwinięta, „dojrzała” AGI przeanalizuje całość naszych zachowań i dojdzie do wniosku, że aby przeżyć, ludzkość musi – dajmy na to – zmniejszyć swoją liczebność o połowę. Może wówczas doprowadzić do radykalizacji nastrojów społecznych, wywołać zdarzenie o charakterze katastroficznym lub pomóc wynieść do władzy polityków domagających się wojny.

Choć niechętnie, niebezpieczeństwo związane z masowym użyciem AGI do wpływania na rzeczywistość polityczną zauważa także Mounir Shita. Podkreśla, że programy tego typu będą miały bardzo ograniczoną zdolność korekty naszych własnych poglądów. Będą bowiem dopasowywać świat do naszych celów i oczekiwań, nie odwrotnie. Jeśli zatem użytkownik Nigela okaże się zdeklarowanym rasistą, program będzie w takich kategoriach postrzegał rzeczywistość. Co gorsza, będzie dążył do jej zmodyfikowania, aby jak najbliżej odzwierciedlała wyobrażenia współpracującego z (bo już nie kierującego) nim człowieka. W dużym skrócie, sztuczna inteligencja będzie raczej nas radykalizować, niż zbliżać. Uwypuklać nasze najbardziej skrajne postawy, zamiast je łagodzić.

Biorąc pod uwagę wciąż nierówny dostęp do nowych technologii, należy się zastanowić, czy algorytmy nie pogłębią już istniejącego rozwarstwienia społecznego. Nawet jeśli w miarę szybko stworzymy działające, naprawdę „totalne” rozwiązanie oparte na AGI, trudno sobie wyobrazić, by natychmiast się upowszechniło. Wówczas część z nas mogłaby podejmować decyzje na podstawie praktycznie nieomylnych instrumentów, podczas gdy inni pozostaliby zdani na moc obliczeniową własnego mózgu. Jak wówczas traktować demokrację? Julia M. Puaschunder z amerykańskiego Centrum Analiz Ekonomicznych im. Bernarda Schwartza zauważa, że mogłoby to doprowadzić do powrotu modelu ateńskiego, gdzie różne klasy społeczne miały różny dostęp do procesu decyzyjnego. Zadaje też pytanie, co z prawami wyborczymi samych maszyn. Czy Nigel i podobne rozwiązania oparte na sztucznej inteligencji nie powinny móc głosować w swoim imieniu? Skoro nadajemy robotom obywatelstwo, logicznym następstwem wydaje się przyznanie im pełni praw wyborczych.

Nie jesteśmy jeszcze w stanie przewidzieć, jaki wpływ na rozwój demokracji będzie miała prawdziwie autonomiczna sztuczna inteligencja. Pilną potrzebę regulacji algorytmów uczących się już jednak widać. Problemy z ich zastosowaniem mają nie tylko Amerykanie, walczący z realnymi monopolami gigantów technologicznych. W Chinach takie spółki jak Alibaba czy Tencent już teraz przechowują i analizują niewiarygodne ilości danych, z których potem dość swobodnie korzystają autorytarne bądź co bądź władze w Pekinie. Jak konkluduje David Runciman, politolog z Uniwersytetu Cambridge, mariaż sztucznej inteligencji i ludzkich wyborów politycznych jest praktycznie nieunikniony. Warto więc, byśmy jako ludzie sami podyktowali warunki tej relacji, póki (jeszcze) mamy nad nimi kontrolę.

Wydanie: 13/2019

Kategorie: Nowe Technologie

Napisz komentarz

Odpowiedz na treść artykułu lub innych komentarzy