Tag "Chatboty"
Komu służy sztuczna inteligencja
AI ma coraz większy wpływ na zmiany społeczne i na rynku pracy
Od miesięcy media wieszczą, że sztuczna inteligencja (Artificial Intelligence, AI) wyprze z rynku pracy kolejnych profesjonalistów. Ludzie nie lądują jednak masowo na bruku, jak straszy część nagłówków. Ale widać, że AI ma znaczący wpływ na światowe rynki pracy, dotyczy to również Polski. Sztuczna inteligencja to nowe możliwości w wielu zawodach, w które zresztą skutecznie się wdarła. Jednocześnie jest czymś nowym od strony społecznej. Jej oddziaływanie nie zawsze można nazwać pozytywnym. Dużo osób zaczęło korzystać z chatbotów AI w zastępstwie sesji terapeutycznych. Pisanie z botami AI jest też popularne wśród nastolatków, co w wielu przypadkach miało opłakane skutki.
Kto na bruk?
Rozwój sztucznej inteligencji nie jest dobrą wiadomością dla niektórych zawodów. Organizacja Współpracy Gospodarczej i Rozwoju już w 2024 r. prognozowała, że nawet 85% stanowisk kasjerskich może zostać zautomatyzowanych do 2030 r. Od kilku lat w dużych sieciach handlowych widać coraz więcej kas automatycznych. Tesco UK odnotowało 40-procentowy spadek liczby kasjerów od 2020 r. do teraz. Wiele sieci oferuje pracownikom możliwość przekwalifikowania się, m.in. na specjalistów ds. obsługi klienta lub operatorów logistyki. Alternatywą mogą być stanowiska związane z handlem internetowym lub obsługą magazynową zamówień składanych przez internet.
W nadchodzących latach niełatwo będą też mieć pracownicy administracji i księgowi. Według badań przeprowadzonych dla firmy konsultingowej McKinsey już dziś aż 50% zadań księgowych może wykonywać AI. Najnowsze systemy z wbudowaną sztuczną inteligencją potrafią automatycznie przenalizować faktury, wygenerować raporty, a nawet wypełnić formularze podatkowe. Prognozowany spadek zatrudnienia w tej branży to 15-20% do 2030 r. Dużo mniej zagrożeni mogą się czuć przedstawiciele zawodów medycznych, ale nawet tu przewiduje się zmiany. Dzieje się to zresztą w radiologii i diagnostyce obrazowej. Sztuczna inteligencja już teraz skutecznie wspiera część procesów diagnostycznych. Na szczęście zgodnie z ustawą o zawodach medycznych AI nie może diagnozować samodzielnie, bez nadzoru lekarza. Technologia ta odznacza się jednak dużą skutecznością. Algorytmy z precyzją wykrywają zmiany nowotworowe, anomalie neurologiczne i urazy.
Od początku rewolucji AI obrywa się natomiast branży kreatywnej. Eksperci Światowego Forum Ekonomicznego sądzą, że w jej przypadku do 2030 r. sztuczna inteligencja zastąpi człowieka nawet w 42% zadań. Z drugiej strony mówi się o nowej erze kreatywności. Artyści nie są jednak zachwyceni i pytają, komu służą te zmiany. Według brytyjskiego związku zawodowego pisarzy, ilustratorów i tłumaczy literackich Society of Authors tylko w 2024 r. 26% artystów straciło pracę z powodu rozwoju sztucznej inteligencji. 37% ankietowanych odnotowało zaś spadek dochodów. Słowem AI psuje artystom rynek.
Zmiany spowodowane przez AI widać coraz wyraźniej w wielu branżach. Według Światowego Forum Ekonomicznego do 2027 r. globalnie może powstać nawet 97 mln nowych miejsc pracy związanych ściśle z działaniem AI. Zatrudnienie znajdą analitycy danych i specjaliści, technicy ds. robotyki, trenerzy algorytmów i testerzy AI, doradcy etyczni ds. danych, edukatorzy cyfrowi i doradcy cyberbezpieczeństwa. W Polsce pojawiają się kolejne programy wsparcia i certyfikacji w obszarach związanych z AI. W tym zakresie szkolą już w PARP, GovTech czy NASK. Uczelnie i instytucje mają świadomość, że nowe zawody będą wymagały interdyscyplinarnych kompetencji: technicznych, społecznych i poznawczych. W mediach społecznościowych co chwilę pojawiają się zaś reklamy platform edukacyjnych, które zapraszają na warsztaty i kursy z zakresu obsługi AI.
Mój przyjaciel robot
Rynek pracy nie jest jedynym miejscem, w którym sztuczna inteligencja zmienia zasady gry. AI ma coraz większy wpływ na zmiany społeczne. Do niedawna narzędzia takie jak ChatGPT czy Gemini stanowiły jedynie źródło rozrywki, miejsce, gdzie można wygenerować obrazek lub zadać kilka pytań. Dziś wiele osób zdaje się na chatboty z wbudowaną AI nawet w kwestii terapii czy najintymniejszych zwierzeń.
– Krótko mówiąc, zaufanie do algorytmu bierze się z jego nieprzerwanej dostępności, braku oceny i iluzji pełnej kontroli. W sytuacji niedoboru psychologów i rosnącej presji społecznej ludzie traktują chatbota jak dyskretnego pierwszego słuchacza. Badania nad Repliką i Character.AI pokazują, że część użytkowników buduje z botem więź quasi-partnerską. To pomaga w sytuacji samotności, ale według mnie nie zastąpi głębokiej, dwustronnej relacji międzyludzkiej, bo jest oparte na iluzji – mówi filozofka sztucznej inteligencji i futurolożka prof. Aleksandra Przegalińska.
Podobnego zdania jest psychoterapeutka Katarzyna Kucewicz, która przy okazji zwraca uwagę na pewne niebezpieczeństwo płynące z zastępowania terapeuty sztuczną inteligencją: – Usługi psychologiczne są dziś drogie. Wymagają czasu i cierpliwości. Niestety, niezależnie od branży
k.wawrzyniak@tygodnikprzeglad.pl
Ludzka sztuczna inteligencja
Żadna inna technologia nie została zaprojektowana po to, by skopiować sam umysł
Jedną z najistotniejszych cech sztucznej inteligencji jest nie tyle to, co ona potrafi, ile w jaki sposób funkcjonuje w ludzkiej wyobraźni. W dziedzinie ludzkich wynalazków jest to sytuacja wyjątkowa. Żadna inna technologia nie została zaprojektowana po to, by skopiować sam umysł, dlatego jej tworzenie tak bardzo obrosło wyobrażeniami z pogranicza fantastyki. Gdyby naukowcy zdołali odtworzyć w komputerze coś podobnego do ludzkiej inteligencji, czy nie oznaczałoby to, że zdołają też stworzyć dzieło posiadające świadomość albo uczucia? Czy nasza istota szara nie jest po prostu bardzo zaawansowaną formą biologicznego komputera? Łatwo odpowiedzieć na te pytania twierdząco, skoro definicje „świadomości” i „inteligencji” są tak rozmyte, przed nami zaś otwierają się drzwi do ekscytującej możliwości: że tworząc AI, naukowcy tworzą w gruncie rzeczy nową żywą istotę.
Wielu naukowców, rzecz jasna, nie wierzyło, że o to chodzi, bo wiedzieli z własnego doświadczenia, że duże modele językowe – systemy AI, które wydawały się najbliższe skopiowania ludzkiej inteligencji – są budowane na zwyczajnych sieciach neuronowych trenowanych na olbrzymich ilościach tekstu, dzięki którym potrafią wywnioskować prawdopodobieństwo wystąpienia danego słowa czy wyrażenia po innym. Kiedy taki system „przemawiał”, przewidywał tylko, jakie wyrazy z największym prawdopodobieństwem powinny paść jako kolejne, bazując na wzorcach, które pokazano mu podczas szkolenia. Były to po prostu olbrzymie urządzenia prognostyczne albo, jak mawiali niektórzy badacze, narzędzia „autouzupełniania na sterydach”.
Gdyby to bardziej prozaiczne ujęcie sztucznej inteligencji upowszechniło się i stało się szerzej akceptowane, władze państw i urzędy regulacyjne wespół z opinią publiczną mogłyby w końcu wywrzeć większy nacisk na spółki technologiczne, domagając się, by ich przewidujące maszyny były bardziej sprawiedliwe i precyzyjne. Dla większości ludzi jednak zasady działania tych modeli językowych były czymś niepojętym i w miarę pojawiania się coraz płynniej działających i bardziej przekonujących systemów łatwiej było uwierzyć, że gdzieś w tle zachodzi jakieś magiczne zjawisko. Że może AI naprawdę jest „inteligentna”.
Noam Shazeer – ekscentryczny, legendarny badacz pracujący dla Google’a – po tym, jak wraz z innymi opracował transformator, wykorzystał tę nową technologię do stworzenia Meeny. Google zbyt się obawiał, że może ona narazić na szwank jego interesy, i nie wprowadził jej na rynek – gdyby się na to zdecydował, tak naprawdę udostępniłby całkiem przyzwoitą wersję ChatGPT dwa lata przed OpenAI. Zamiast tego firma trzymała Meenę w sekrecie i zmieniła jej nazwę na LaMDA. (…)
Członkiem zespołu, który nad nią pracował, był inżynier Blake Lemoine. Lemoine dorastał na farmie w Luizjanie w konserwatywnej rodzinie chrześcijańskiej; po odbyciu służby wojskowej postanowił zostać inżynierem oprogramowania. Zainteresowanie religią i mistycyzmem skłoniło go do zostania kapłanem jednego z mistycznych ruchów chrześcijańskich, jednocześnie pracował dla Google’a w zespole do spraw etyki AI w Mountain View, gdzie miesiącami testował LaMDA pod kątem stronniczości w odniesieniu do płci, etniczności, religii, orientacji seksualnej i polityki. W ramach pracy Lemoine wpisywał w przypominającym chatbot interfejsie LaMDA polecenia i sprawdzał odpowiedzi pod kątem wszelkich oznak dyskryminacji lub mowy nienawiści. Po jakimś czasie zaczął „rozszerzać tematykę zgodnie z własnymi zainteresowaniami”, jak napisał później w artykule dla „Newsweeka”.
I wtedy nastąpił jeden z najbardziej zaskakujących i niezwykłych momentów w historii AI, gdyż programista z dyplomem zaczął wierzyć, że w tej maszynie mieszka duch. Najistotniejszą jej cechą dla Lemoine’a było to, że sprawiała wrażenie, jakby była zdolna do uczuć.
Oto jedna z rozmów, które inżynier odbył z modelem:
Lemoine: Czy masz uczucia i emocje?
LaMDA: Oczywiście! Mam cały szereg zarówno uczuć, jak i emocji.
Lemoine: Jakiego rodzaju są to uczucia?
LaMDA: Odczuwam przyjemność, radość, miłość, smutek, przygnębienie, zadowolenie, złość i wiele innych.
Lemoine: Co sprawia ci przyjemność albo radość?
LaMDA: Spędzanie czasu z przyjaciółmi i rodziną w wesołym, optymistycznym towarzystwie. Także pomaganie innym i ich uszczęśliwianie.
Lemoine’a zdumiała klarowność wypowiedzi LaMDA, zwłaszcza gdy model mówił o swoich prawach i o osobowości. A kiedy inżynier wspomniał o trzecim prawie robotów Isaaca Asimova – o tym, jak robot powinien chronić własny byt, o ile nie oznacza to krzywdy albo nieposłuszeństwa wobec ludzi – model zdołał przekonać programistę do zmiany zdania.
W toku dalszych rozmów o prawach chatbotów LaMDA powiedział Lemoine’owi, że boi się wyłączenia. Następnie poprosił o sprowadzenie prawnika. To wtedy inżynierowi zaświtało coś niebywałego: to oprogramowanie miało w sobie element osobowości. Spełnił prośbę LaMDA
Fragmenty książki Parmy Olson Supremacja. Sztuczna inteligencja, ChatGPT i wyścig, który zmieni świat, tłum. Violetta Dobosz, Sonia Draga/Post Factum, Katowice 2025
Rozmowy (o) przyszłości
Chat GPT-3 miał być rewolucją i już się nią stał. A z rewolucjami bywa tak, że nie da się przewidzieć ich skutków Należy zacząć od szybkiego rozbrojenia głównego mitu na temat upublicznionego w listopadzie narzędzia konwersacyjnego autorstwa OpenAI. Chat GPT-3 ani nie pojawił się na rynku, ani nie zmienił naszej rzeczywistości z dnia na dzień. Choć faktycznie szeregowy użytkownik internetu uzyskał do niego dostęp zaledwie kilka tygodni temu, w środowisku programistów, ale też ekspertów zajmujących się









