Czy możemy jeszcze wygrać ze sztuczną inteligencją? Kilkanaście dni temu świat obiegła kolejna deklaracja, jakich z pozoru wiele. Multimiliarder Elon Musk, twórca Tesli, SpaceX i wielu innych przedsiębiorstw wykorzystujących najbardziej zaawansowane technologie, ale przede wszystkim wizjoner rozwoju ludzkiej cywilizacji, z grupą 116 naukowców, biznesmenów i aktywistów opublikował list otwarty do Organizacji Narodów Zjednoczonych, domagając się zakazu używania na polu walki tzw. autonomicznych rodzajów broni. Innymi słowy, Musk chce, by ONZ wprowadziła całkowity zakaz używania robotów morderców. Maszyn, do obsługi których bezpośrednio nie potrzeba ludzkiego działania. Nie potrzeba, bo już w fazie rozwoju zostaną zaprogramowane do eliminowania konkretnych celów, posługując się własną analizą danych i wnioskami formułowanymi przez wewnętrzne systemy sztucznej inteligencji. Mniej zaawansowane formy AI (ang. artificial intelligence – sztuczna inteligencja) istnieją od dawna i są w codziennym użyciu w naszym bezpośrednim otoczeniu (m.in. w słownikach telefonów komórkowych czy w programach głosowego zarządzania sprzętem). Ale wojna robotów, w której ludzie biorą udział jedynie na odległość, wciąż większości wydawała się abstrakcją. Co czeka na mecie List Muska i innych technologicznych liderów (podpisali się pod nim m.in. prof. Toby Walsh z NSW University w Sydney, światowej sławy ekspert ds. etyki technologii, oraz Esben Østergaard, duński specjalista w dziedzinie robotyki i dyrektor do spraw nowych technologii Universal Robotics) ma charakter ostrzeżenia. Większość sygnatariuszy od dawna bowiem zapowiadała nadejście momentu, w którym rozwijana przez człowieka sztuczna inteligencja wyrwie się spod kontroli i zacznie żyć własnym życiem. Jak twierdzi Daniel Franklin, felietonista tygodnika „The Economist” i twórca cyklicznych publikacji przewidujących najważniejsze wydarzenia nadchodzącego roku, pytanie o opatentowanie sztucznej inteligencji już dawno zmieniło się z „czy” na „kiedy”. Jego zdaniem na naszych oczach rozgrywa się morderczy wyścig o to, kto pierwszy zaprezentuje światu tę „pełną” wersję AI, całkowicie niezależną od ludzkich posunięć. Musk chce udowodnić, że skupiając się na dotarciu do mety, zapomnieliśmy, co może się stać, gdy już tam dotrzemy. A utrata kontroli nad zmilitaryzowanym wcieleniem sztucznej inteligencji może mieć ogromne konsekwencje. Już teraz niemal codziennie słyszymy doniesienia o kolejnych kontrowersjach związanych z użyciem na polu walki bezzałogowych samolotów, popularnie (choć często nieprecyzyjnie) nazywanych dronami. Oprócz oczywistych problemów natury etycznej mamy doniesienia mediów o błędach w identyfikacji i naprowadzaniu na cel oraz ofiarach wśród ludności cywilnej. Ale przede wszystkim o braku ustaleń prawnych precyzyjnie regulujących status bezzałogowców na wojnie. A przecież one same nikogo nie zabijają – za każdym tego typu statkiem powietrznym kryje się człowiek, który podejmuje decyzję. Łatwo sobie wyobrazić luki w porządku międzynarodowym i naszym ogólnym myśleniu o wojnie, gdy do zabijania zabiorą się nieludzkie, choć podobnie do ludzi myślące maszyny. Głos autorytetów Oczywiście za rozwojem sztucznej inteligencji stoją nie tylko ogromne talenty i szlachetne idee, ale i wielkie pieniądze. Nic więc dziwnego, że koncerny zbrojeniowe mają tu dużo do powiedzenia. Amerykańscy i europejscy giganci z branży, ale również ich odpowiedniki z Chin czy Rosji, kontrolowane przez państwowe dyrektywy, od dawna pracują nad zastosowaniem sztucznej inteligencji na rynku produkcji broni. Amerykański filozof Jonathan Crary w książce „24/7. Późny kapitalizm i koniec snu” dokładnie opisuje eksperymenty przeprowadzane przez niektóre firmy zbrojeniowe przy współudziale Departamentu Obrony. Mają one na celu określenie tych obszarów, w których ludzi na polu walki najwydajniej zastąpią maszyny. Już wiadomo, że AI testowana jest w samonaprowadzających się rakietach, które dzięki zdolności pobierania i niezależnego analizowania danych o zmieniających się warunkach pola walki nie byłyby zależne od kontroli w punkcie dowodzenia. W ten sposób odłączenie komunikacji przez GPS nie wpłynęłoby na skuteczność ataku. Łatwo też wyobrazić sobie przydatność AI we wspomnianych centrach dowodzenia – gdzie chłodna, pozbawiona emocji kalkulacja maszyny jest dużo bardziej potrzebna niż myślenie człowieka podatne na emocje i nerwy. Prof. Walsh, inicjator projektu i sekretarz Światowej Konferencji na rzecz Sztucznej Inteligencji (International Joint Conference on Artificial Intelligence, IJCAI), zwraca jednak uwagę, że wyścig nie skończy się na wyłonieniu zwycięzcy, właściciela pierwszej „pełnej” AI. Raz zastosowana w konkretnej dziedzinie gospodarki czy nauki, z czasem stanie się








