Sztuczna inteligencja sobie, a ludzie sobie

Sztuczna inteligencja sobie, a ludzie sobie

Fot. archiwum prywatne

Przewiduje się, że niedługo zawód radiologa będzie wykonywać inteligentna maszyna Dr Aleksandra Przegalińska-Skierkowska – filozof z Katedry Zarządzania w Społeczeństwie Sieciowym w Akademii Leona Koźmińskiego. Jej zainteresowania badawcze obejmują m.in. tożsamość w rzeczywistości wirtualnej, kognitywistykę, cybernetykę, robotykę i wpływ nowych mediów na zdolności poznawcze człowieka. Niedawno czołowi naukowcy zajmujący się rozwojem sztucznej inteligencji zwrócili się do Organizacji Narodów Zjednoczonych z apelem o zatrzymanie badań nad „inteligentnymi rodzajami broni”. Czyżby sektor militarny prowadził ludzkość do zguby? – Dlaczego zaczynamy rozmowę od militarnego aspektu sztucznej inteligencji? Chcemy straszyć? Sądzę, że nie ma człowieka, który by się cieszył z perspektywy włączenia do arsenałów wojskowych inteligentnych rodzajów broni, bezdusznych, nieustraszonych, a zarazem perfekcyjnych niszczycieli ludzkiego gatunku. Komuś musi to jednak się podobać, skoro są prowadzone próby i badania. – Może niektórym liderom politycznym i specjalistom od wojen, jednak ani społeczeństwa, ani badacze nie popierają takich prac. Trzeba jednak pamiętać, że technika i technologia wojskowa wzbogaciły nasze cywilne i pokojowe możliwości. Armii zawdzięczamy internet, technikę kosmiczną, jesteśmy więc beneficjentami badań, odkryć i prac naukowych wykorzystywanych w wojsku. Z drugiej jednak strony dostrzegamy ogromne zagrożenie we wprzęganiu do walki zbrojnej technik AI (Artifitial Inteligency). Na dobrą sprawę dzisiaj każdy taki instrument może być wykorzystywany jako broń. Skala ryzyka i negatywnych implikacji jest ogromna. Czy sądzi pani, że te słuszne apele odniosą jakiś skutek? – Nagłaśnianie tej sprawy odnosi skutek, bo tworzy presję polityczną i oddziałuje na opinię publiczną. Daje to niekiedy także praktyczny rezultat. Przykładem jest choćby niedawny sprzeciw pracowników Google’a, którzy ogłosili, że nie chcą pracować dla sektora militarnego, i w związku z tym zawieszono tam projekty wspierające wojsko. Sprzeciw nawet wobec większego i silniejszego partnera może być skuteczny. Nie chcemy inteligentnej broni, która niszczy zdrowie i życie człowieka, popieramy natomiast to, co pomaga mu zachować sprawność i leczyć. – To obszar najbardziej obiecujący w wielu wymiarach, bo dla medycyny pomocny może być rozwój robotyki przy różnych operacjach i zabiegach, uczenie maszynowe w kształceniu lekarzy, przetwarzanie języka naturalnego, diagnostyka chorób rzadkich wspomagana sztuczną inteligencją. Zwykłemu lekarzowi trudno jest skorelować ogromną liczbę danych o stanie zdrowia i przebiegu terapii pacjenta, ale z pomocą sztucznej inteligencji przebiega to szybciej i jest niezawodne. Przewiduje się, że już niedługo zawód radiologa będzie wykonywać inteligentna maszyna, podobnie może być w innych medycznych specjalnościach, więc tutaj zastosowanie sztucznej inteligencji jest trafione i dobroczynne. Podczas stażu w Massachusetts Institute of Technology zajmowała się pani trackerami ludzkiego mózgu. Czy to także zbliżone do medycyny? – Trackery to urządzenia służące do badania impulsów, w tym wypadku fal mózgowych. Tutaj także można zastosować sztuczną inteligencję, urządzenia dostarczają bowiem dużej liczby danych, które trzeba opracować. Aktywność mózgu pozwala na śledzenie procesów myślowych, są to często dane wrażliwe, które powinny być chronione. Coś jak dane z wykrywaczy kłamstw, które mogą się okazać dosyć groźne w niektórych przypadkach? – Dla badacza jest to jednak ciekawy materiał pozwalający tworzyć modele inteligentnych urządzeń skrojonych na miarę potrzeb człowieka. Projekt inteligentnego domu zakłada, że wykonuje on te czynności, które w danym momencie spełniają potrzeby człowieka, np. otwiera garaż, zapala światło, włącza alarm itd. Sztuczna inteligencja pozwala wykorzystać mnóstwo czujników reagujących nawet na impulsy naszych zmysłów. Pomaga nam lepiej się uczyć, porozumiewać, rejestruje wiele dodatkowych danych, ale te dane muszą być bezpiecznie pozyskiwane, bo nie możemy czuć się zagrożeni i bezwarunkowo kontrolowani. Pozornie mniej skomplikowane od reakcji człowieka na różne bodźce są procesy rynkowe i koniunktura ekonomiczna. W tych analizach z pewnością mogłyby pomóc inteligentne urządzenia. Ekonomiści często się mylą w prognozach, w przypadku urządzeń myślących pomyłki są chyba wykluczone. – Sztuczna inteligencja też może się mylić. Według jednej z koncepcji naukowych, jeśli maszynę nakarmimy danymi nie do końca prawdziwymi, to ich interpretacja też może być błędna. Sztuczna inteligencja sobie, a ludzie sobie. Wynik analizy w zależności od jakości

Ten artykuł przeczytasz do końca tylko z aktywną subskrypcją cyfrową.
Aby uzyskać dostęp, należy zakupić jeden z dostępnych pakietów:
Dostęp na 1 miesiąc do archiwum Przeglądu lub Dostęp na 12 miesięcy do archiwum Przeglądu
Porównaj dostępne pakiety
Wydanie: 2018, 38/2018

Kategorie: Nauka