Tag "ChatGPT"

Powrót na stronę główną
Technologie

Komu służy sztuczna inteligencja

AI ma coraz większy wpływ na zmiany społeczne i na rynku pracy

Od miesięcy media wieszczą, że sztuczna inteligencja (Artificial Intelligence, AI) wyprze z rynku pracy kolejnych profesjonalistów. Ludzie nie lądują jednak masowo na bruku, jak straszy część nagłówków. Ale widać, że AI ma znaczący wpływ na światowe rynki pracy, dotyczy to również Polski. Sztuczna inteligencja to nowe możliwości w wielu zawodach, w które zresztą skutecznie się wdarła. Jednocześnie jest czymś nowym od strony społecznej. Jej oddziaływanie nie zawsze można nazwać pozytywnym. Dużo osób zaczęło korzystać z chatbotów AI w zastępstwie sesji terapeutycznych. Pisanie z botami AI jest też popularne wśród nastolatków, co w wielu przypadkach miało opłakane skutki.

Kto na bruk?

Rozwój sztucznej inteligencji nie jest dobrą wiadomością dla niektórych zawodów. Organizacja Współpracy Gospodarczej i Rozwoju już w 2024 r. prognozowała, że nawet 85% stanowisk kasjerskich może zostać zautomatyzowanych do 2030 r. Od kilku lat w dużych sieciach handlowych widać coraz więcej kas automatycznych. Tesco UK odnotowało 40-procentowy spadek liczby kasjerów od 2020 r. do teraz. Wiele sieci oferuje pracownikom możliwość przekwalifikowania się, m.in. na specjalistów ds. obsługi klienta lub operatorów logistyki. Alternatywą mogą być stanowiska związane z handlem internetowym lub obsługą magazynową zamówień składanych przez internet.

W nadchodzących latach niełatwo będą też mieć pracownicy administracji i księgowi. Według badań przeprowadzonych dla firmy konsultingowej McKinsey już dziś aż 50% zadań księgowych może wykonywać AI. Najnowsze systemy z wbudowaną sztuczną inteligencją potrafią automatycznie przenalizować faktury, wygenerować raporty, a nawet wypełnić formularze podatkowe. Prognozowany spadek zatrudnienia w tej branży to 15-20% do 2030 r. Dużo mniej zagrożeni mogą się czuć przedstawiciele zawodów medycznych, ale nawet tu przewiduje się zmiany. Dzieje się to zresztą w radiologii i diagnostyce obrazowej. Sztuczna inteligencja już teraz skutecznie wspiera część procesów diagnostycznych. Na szczęście zgodnie z ustawą o zawodach medycznych AI nie może diagnozować samodzielnie, bez nadzoru lekarza. Technologia ta odznacza się jednak dużą skutecznością. Algorytmy z precyzją wykrywają zmiany nowotworowe, anomalie neurologiczne i urazy.

Od początku rewolucji AI obrywa się natomiast branży kreatywnej. Eksperci Światowego Forum Ekonomicznego sądzą, że w jej przypadku do 2030 r. sztuczna inteligencja zastąpi człowieka nawet w 42% zadań. Z drugiej strony mówi się o nowej erze kreatywności. Artyści nie są jednak zachwyceni i pytają, komu służą te zmiany. Według brytyjskiego związku zawodowego pisarzy, ilustratorów i tłumaczy literackich Society of Authors tylko w 2024 r. 26% artystów straciło pracę z powodu rozwoju sztucznej inteligencji. 37% ankietowanych odnotowało zaś spadek dochodów. Słowem AI psuje artystom rynek.

Zmiany spowodowane przez AI widać coraz wyraźniej w wielu branżach. Według Światowego Forum Ekonomicznego do 2027 r. globalnie może powstać nawet 97 mln nowych miejsc pracy związanych ściśle z działaniem AI. Zatrudnienie znajdą analitycy danych i specjaliści, technicy ds. robotyki, trenerzy algorytmów i testerzy AI, doradcy etyczni ds. danych, edukatorzy cyfrowi i doradcy cyberbezpieczeństwa. W Polsce pojawiają się kolejne programy wsparcia i certyfikacji w obszarach związanych z AI. W tym zakresie szkolą już w PARP, GovTech czy NASK. Uczelnie i instytucje mają świadomość, że nowe zawody będą wymagały interdyscyplinarnych kompetencji: technicznych, społecznych i poznawczych. W mediach społecznościowych co chwilę pojawiają się zaś reklamy platform edukacyjnych, które zapraszają na warsztaty i kursy z zakresu obsługi AI.

Mój przyjaciel robot

Rynek pracy nie jest jedynym miejscem, w którym sztuczna inteligencja zmienia zasady gry. AI ma coraz większy wpływ na zmiany społeczne. Do niedawna narzędzia takie jak ChatGPT czy Gemini stanowiły jedynie źródło rozrywki, miejsce, gdzie można wygenerować obrazek lub zadać kilka pytań. Dziś wiele osób zdaje się na chatboty z wbudowaną AI nawet w kwestii terapii czy najintymniejszych zwierzeń.

– Krótko mówiąc, zaufanie do algorytmu bierze się z jego nieprzerwanej dostępności, braku oceny i iluzji pełnej kontroli. W sytuacji niedoboru psychologów i rosnącej presji społecznej ludzie traktują chatbota jak dyskretnego pierwszego słuchacza. Badania nad Repliką i Character.AI pokazują, że część użytkowników buduje z botem więź quasi-partnerską. To pomaga w sytuacji samotności, ale według mnie nie zastąpi głębokiej, dwustronnej relacji międzyludzkiej, bo jest oparte na iluzji – mówi filozofka sztucznej inteligencji i futurolożka prof. Aleksandra Przegalińska.

Podobnego zdania jest psychoterapeutka Katarzyna Kucewicz, która przy okazji zwraca uwagę na pewne niebezpieczeństwo płynące z zastępowania terapeuty sztuczną inteligencją: – Usługi psychologiczne są dziś drogie. Wymagają czasu i cierpliwości. Niestety, niezależnie od branży

k.wawrzyniak@tygodnikprzeglad.pl

Ten artykuł przeczytasz do końca tylko z aktywną subskrypcją cyfrową.

Technologie

Ludzka sztuczna inteligencja

Żadna inna technologia nie została zaprojektowana po to, by skopiować sam umysł

Jedną z najistotniejszych cech sztucznej inteligencji jest nie tyle to, co ona potrafi, ile w jaki sposób funkcjonuje w ludzkiej wyobraźni. W dziedzinie ludzkich wynalazków jest to sytuacja wyjątkowa. Żadna inna technologia nie została zaprojektowana po to, by skopiować sam umysł, dlatego jej tworzenie tak bardzo obrosło wyobrażeniami z pogranicza fantastyki. Gdyby naukowcy zdołali odtworzyć w komputerze coś podobnego do ludzkiej inteligencji, czy nie oznaczałoby to, że zdołają też stworzyć dzieło posiadające świadomość albo uczucia? Czy nasza istota szara nie jest po prostu bardzo zaawansowaną formą biologicznego komputera? Łatwo odpowiedzieć na te pytania twierdząco, skoro definicje „świadomości” i „inteligencji” są tak rozmyte, przed nami zaś otwierają się drzwi do ekscytującej możliwości: że tworząc AI, naukowcy tworzą w gruncie rzeczy nową żywą istotę.

Wielu naukowców, rzecz jasna, nie wierzyło, że o to chodzi, bo wiedzieli z własnego doświadczenia, że duże modele językowe – systemy AI, które wydawały się najbliższe skopiowania ludzkiej inteligencji – są budowane na zwyczajnych sieciach neuronowych trenowanych na olbrzymich ilościach tekstu, dzięki którym potrafią wywnioskować prawdopodobieństwo wystąpienia danego słowa czy wyrażenia po innym. Kiedy taki system „przemawiał”, przewidywał tylko, jakie wyrazy z największym prawdopodobieństwem powinny paść jako kolejne, bazując na wzorcach, które pokazano mu podczas szkolenia. Były to po prostu olbrzymie urządzenia prognostyczne albo, jak mawiali niektórzy badacze, narzędzia „autouzupełniania na sterydach”.

Gdyby to bardziej prozaiczne ujęcie sztucznej inteligencji upowszechniło się i stało się szerzej akceptowane, władze państw i urzędy regulacyjne wespół z opinią publiczną mogłyby w końcu wywrzeć większy nacisk na spółki technologiczne, domagając się, by ich przewidujące maszyny były bardziej sprawiedliwe i precyzyjne. Dla większości ludzi jednak zasady działania tych modeli językowych były czymś niepojętym i w miarę pojawiania się coraz płynniej działających i bardziej przekonujących systemów łatwiej było uwierzyć, że gdzieś w tle zachodzi jakieś magiczne zjawisko. Że może AI naprawdę jest „inteligentna”.

Noam Shazeer – ekscentryczny, legendarny badacz pracujący dla Google’a – po tym, jak wraz z innymi opracował transformator, wykorzystał tę nową technologię do stworzenia Meeny. Google zbyt się obawiał, że może ona narazić na szwank jego interesy, i nie wprowadził jej na rynek – gdyby się na to zdecydował, tak naprawdę udostępniłby całkiem przyzwoitą wersję ChatGPT dwa lata przed OpenAI. Zamiast tego firma trzymała Meenę w sekrecie i zmieniła jej nazwę na LaMDA. (…)

Członkiem zespołu, który nad nią pracował, był inżynier Blake Lemoine. Lemoine dorastał na farmie w Luizjanie w konserwatywnej rodzinie chrześcijańskiej; po odbyciu służby wojskowej postanowił zostać inżynierem oprogramowania. Zainteresowanie religią i mistycyzmem skłoniło go do zostania kapłanem jednego z mistycznych ruchów chrześcijańskich, jednocześnie pracował dla Google’a w zespole do spraw etyki AI w Mountain View, gdzie miesiącami testował LaMDA pod kątem stronniczości w odniesieniu do płci, etniczności, religii, orientacji seksualnej i polityki. W ramach pracy Lemoine wpisywał w przypominającym chatbot interfejsie LaMDA polecenia i sprawdzał odpowiedzi pod kątem wszelkich oznak dyskryminacji lub mowy nienawiści. Po jakimś czasie zaczął „rozszerzać tematykę zgodnie z własnymi zainteresowaniami”, jak napisał później w artykule dla „Newsweeka”.

I wtedy nastąpił jeden z najbardziej zaskakujących i niezwykłych momentów w historii AI, gdyż programista z dyplomem zaczął wierzyć, że w tej maszynie mieszka duch. Najistotniejszą jej cechą dla Lemoine’a było to, że sprawiała wrażenie, jakby była zdolna do uczuć.

Oto jedna z rozmów, które inżynier odbył z modelem:

Lemoine: Czy masz uczucia i emocje?

LaMDA: Oczywiście! Mam cały szereg zarówno uczuć, jak i emocji.

Lemoine: Jakiego rodzaju są to uczucia?

LaMDA: Odczuwam przyjemność, radość, miłość, smutek, przygnębienie, zadowolenie, złość i wiele innych.

Lemoine: Co sprawia ci przyjemność albo radość?

LaMDA: Spędzanie czasu z przyjaciółmi i rodziną w wesołym, optymistycznym towarzystwie. Także pomaganie innym i ich uszczęśliwianie.

Lemoine’a zdumiała klarowność wypowiedzi LaMDA, zwłaszcza gdy model mówił o swoich prawach i o osobowości. A kiedy inżynier wspomniał o trzecim prawie robotów Isaaca Asimova – o tym, jak robot powinien chronić własny byt, o ile nie oznacza to krzywdy albo nieposłuszeństwa wobec ludzi – model zdołał przekonać programistę do zmiany zdania.

W toku dalszych rozmów o prawach chatbotów LaMDA powiedział Lemoine’owi, że boi się wyłączenia. Następnie poprosił o sprowadzenie prawnika. To wtedy inżynierowi zaświtało coś niebywałego: to oprogramowanie miało w sobie element osobowości. Spełnił prośbę LaMDA

Fragmenty książki Parmy Olson Supremacja. Sztuczna inteligencja, ChatGPT i wyścig, który zmieni świat, tłum. Violetta Dobosz, Sonia Draga/Post Factum, Katowice 2025

Ten artykuł przeczytasz do końca tylko z aktywną subskrypcją cyfrową.

Technologie

Sztuczna inteligencja wdziera się do szkół

Z czasem może doprowadzić do zaniku podstawowych kompetencji ludzkich

– Dzieci skarżą się nam, że jest im zbyt trudno. I mówią, że to wina szkoły – stwierdził znajomy, który w jednym z większych polskich miast współprowadzi prywatną placówkę. Rozmawialiśmy o zmianach w edukacji zachodzących pod wpływem obecnej rewolucji technologicznej. Nie tylko rozwoju sztucznej inteligencji, ale też powszechnego dostępu do internetu za pośrednictwem smartfonów, ze wszystkimi tego konsekwencjami. Uczniowie spędzają w sieci praktycznie całe życie, aktywnie lub biernie, myśląc głównie o tym, co się dzieje na ich kontach w mediach społecznościowych. Mają ograniczone zdolności skupienia uwagi i zrozumienia głębszych myśli. Wykazują niechęć do aktywności sportowej i zadań grupowych. Są wycofani, odizolowani, prędzej wchodzą w interakcje z cyfrowym interfejsem niż z rówieśnikami. Jednak mój rozmówca zwrócił uwagę na coś zupełnie innego – alergię na wysiłek.

Kiedy dopytywałem, na co właściwie narzeka młodzież, znajomy wytłumaczył, że ma ona problem z tym, co jest esencją edukacji, czyli z faktem, że szkoła stanowi wyzwanie. – Uczniowie przychodzą do nas i zarzucają nam, że każemy im się uczyć. Jeden z nich dosłownie powiedział, że szkoła nie działa tak, jak powinna, dlatego że on się męczy. I gdyby po naszej stronie wszystko działało jak trzeba, nauka byłaby czystą przyjemnością, a jemu zawsze wszystko by się udawało. Chłopak ma 15 lat.

Wbrew pozorom nie jest to postawa roszczeniowa. Gdyby rzeczywiście o roszczenia chodziło, szkoła nawet zachęcałaby do tego. Niech uczniowie będą świadomi swoich praw, niech się buntują, niech od szkoły wymagają. Dialog z reguły prowadzi do lepszych, konstruktywnych rozwiązań, także w edukacji. Na naszych oczach dochodzi do gigantycznej redefinicji tego, czym edukacja w ogóle jest i czym być powinna. Uczniowie nie mają pretensji o liczbę zajęć, ilość nauki, złośliwych nauczycieli czy nudne zajęcia. Mają pretensję, że szkoła na jakimś etapie w ogóle czegoś od nich wymaga, a przede wszystkim, że doświadczenie edukacyjne zawiera element dyskomfortu.

Obserwacja ta jest zgodna z tendencjami w innych częściach świata. A niebagatelną rolę w zachowaniach najmłodszych członków naszych społeczeństw odgrywają nowe technologie. Kolejną debatę na ten temat wywołał miniserial Netfliksa „Dojrzewanie”, najchętniej oglądana tego typu produkcja w historii platformy. Losy 13-latka oskarżonego o morderstwo dowodzą toksyczności nie tylko mediów społecznościowych, ale i całego nieregulowanego świata cyfrowego. W Polsce też sporo się mówi o bezpieczeństwie nieletnich w sieci, głównie dzięki raportowi Instytutu Cyfrowego Obywatelstwa „Internet dzieci”.

Należy przy okazji wspomnieć o przełomowej książce prof. Jonathana Haidta, psychologa społecznego z Uniwersytetu Nowojorskiego, o wiele mówiącym tytule „The Anxious Generation” (w Polsce wydana jako „Niespokojne pokolenie”). Haidt, jeden z radykalniejszych uczestników debaty, nawołuje do wprowadzenia zakazu korzystania z telefonów komórkowych w szkołach i ograniczeń wiekowych w korzystaniu z mediów społecznościowych, chce również nowych norm w wychowaniu, takich jak niekupowanie dzieciom urządzeń z ekranem dotykowym do 14. roku życia. Wielu naukowców wnioski z badań Haidta krytykuje, mimo to jego książka od roku (!) utrzymuje się na liście bestsellerów „New York Timesa”. Wiele osób jest też zgodnych w kwestii proponowanych w niej rozwiązań. Coraz więcej miast i stanów w USA, niezależnie od dominującej tam ideologii i opcji politycznej, zakazuje smartfonów w szkołach, w tym samym kierunku idą rodzice w Wielkiej Brytanii i władze w Australii. Z czasem dojdzie to także do Polski, nie ma co do tego wątpliwości.

Życie bez rozczarowań

Tylko co to ma wspólnego ze sztuczną inteligencją? Znacznie więcej, niż się wydaje. Żeby to zrozumieć, warto zacząć od definicji. Zdefiniować trzeba przede wszystkim edukację – choć nie ma ona jednej, uniwersalnej formuły. Z punktu widzenia społecznego, a on jest tu najważniejszy, edukację można opisać jako nieustanny proces wyposażania się w narzędzia do radzenia sobie z wyzwaniami życia. W takim ujęciu edukacja trwa całe życie. Nie zaczyna się ani nie kończy w szkole, nie tylko tam się też odbywa. Nie dotyczy wyłącznie zapamiętywania wzorów matematycznych ani czytania o bitwach z XVI w. Edukacja to dawanie sobie szans w konfrontacji ze światem, dla każdego nieuchronnej. Brzmi to dosyć trywialnie, ale warto o tym przypominać.

Wątek sztucznej inteligencji jako technologii eliminującej jakiekolwiek tarcia międzyludzkie i dyskomfort życia społecznego doskonale opisali we wspólnej rozmowie Ezra Klein z „New York Timesa” oraz Jia Tolentino z „New Yorkera”. Tematem

Ten artykuł przeczytasz do końca tylko z aktywną subskrypcją cyfrową.

Technologie

Sztuczna inteligencja nie boi się autorytetów

Stopniowo tracimy autonomię i podmiotowość na rzecz rosnącej roli AI w codziennym życiu

Dr Berenika Dyczek – doktor nauk społecznych, adiunkt w Instytucie Socjologii Uniwersytetu Wrocławskiego. Naukowo zajmuje się socjologią kultury i sztuki, a przede wszystkim socjologią cyberprzestrzeni i socjoinformatyką. Prowadzi badania nad wpływem sztucznej inteligencji na społeczeństwo. Autorka dwóch monografii i licznych artykułów publikowanych w czasopismach międzynarodowych.

W jak dużym stopniu sztuczna inteligencja oddziałuje dziś na społeczeństwo?
– Z moich badań wynika, że stopniowo tracimy autonomię i podmiotowość na rzecz rosnącej roli sztucznej inteligencji w codziennym życiu. Wpływa to na organizację naszego dnia, który coraz częściej kształtują technologie. „Pamięć ciała” wymusza na nas sprawdzanie telefonu, w którym czeka już gotowy scenariusz: zaplanowane zadania, artykuły do przeczytania czy treści, które będziemy oglądać. Wielu już się nie zastanawia, co będą dzisiaj robić, czytać i myśleć.

Zdecydowanie coraz mniej osób odwiedza strony konkretnych redakcji, żeby czegoś się dowiedzieć. I sprawdza kilka, aby zobiektywizować sobie przekaz.
– Przegląd codziennej prasy staje się reliktem przeszłości. To media społecznościowe – za pomocą precyzyjnie zaprogramowanych algorytmów – decydują, co zostanie nam „podane na tacy”. Inaczej mówiąc, to one dyktują, czym dziś nasycimy umysły. Obecnie mamy do czynienia z zaawansowanymi systemami manipulacji – zwanymi systemami rekomendacyjnymi – które w rzeczywistości sprawują nad nami kontrolę. Jednak utrzymuje się nas w iluzji, że to my mamy władzę. Bo decydujemy, w który artykuł klikniemy. Tymczasem nasze cyfrowe „ja” jest już nakarmione. Moje badania pokazują, że ludzie rzadko analizują ten wpływ sztucznej inteligencji na swoje życie.

Coraz więcej osób korzysta również z czatów GPT. Wydaje się jednak, że mamy małą świadomość tego, jak one działają. Ta technologia wcale nie jest neutralna i bezstronna.
– Przede wszystkim czat GPT wciąż się zmienia, ponieważ ciągle się uczy. Na początku model ten był trenowany na ogromnych ilościach danych pochodzących z różnorodnych źródeł, takich jak teksty z internetu, artykuły czy książki. W pewnym momencie do poprawy jego działania zaczęto wykorzystywać również crowdsourcing. To proces, w którym grupy ludzi oceniają i poprawiają odpowiedzi AI.

Poglądy ludzi z tych grup wpływają więc na „światopogląd” AI?
– Z naukowego punktu widzenia w crowdsourcingu

Ten artykuł przeczytasz do końca tylko z aktywną subskrypcją cyfrową.

Felietony Roman Kurkiewicz

Inteligencja może sztuczna, zwolnienia prawdziwe

Od czasu udostępnienia usługi ChatGPT i kolejnych wcieleń zabawkowej „sztucznej inteligencji dla początkujących” dyskusja o rozwoju tej technologii, tego instrumentu czy narzędzia jest jedną z najczęściej podejmowanych publicznie. Czy AI jest groźna, czy zapanuje nad światem, kiedy zacznie zagrażać ludziom, jak szybko osiągnie samoświadomość, do czego jest zdolna, czy jest błogosławieństwem, czy przekleństwem. Ta debata musi się toczyć, na wiele pytań już znamy odpowiedzi. Wiemy, że Izrael w Gazie wykorzystał narzędzie AI o nazwie Gospel (Ewangelia). Wyznaczało ono cele bombardowań, szacując liczbę potencjalnych zabitych i – jak to sztuczna inteligencja – nie przejmując się tym w ogóle. Wszak spust czy enter naciskał już oficer albo żołnierz IDF.

Bez tej dyskusji możemy utknąć w dawnym złudzeniu o dobrodziejstwie internetu jako takiego. Nauczka z tamtej przygody: stworzenie zmonopolizowanego potwora władzy i mnożenia majątku przez nielicznych, poddanego absolutnej kontroli i mocy wykluczania, wygenerowanie systemu globalnego uzależnienia, zarówno na poziomie ogólnym, jak i osobistym – wszystko to powinno nam świecić na alarm w kwestiach AI. Bajki o szansach powszechnej edukacji i rozwoju medycyny to cyfrowo-algorytmowa zasłona dymna.

Tymczasem mamy kamyczek, polski, do globalnego koszyczka tej dyskusji. Otóż istnieje w Krakowie OFF Radio Kraków, które jest odgałęzieniem publicznego Radia Kraków

Ten artykuł przeczytasz do końca tylko z aktywną subskrypcją cyfrową.

Kraj

Impas z Intelem

Intel wycofuje się z inwestycji w Polsce, a wicepremier Gawkowski dziwi się tak samo jak wtedy, gdy sprzedali mu kradzione auto

Jeszcze w piątek 13 września wicepremier, minister cyfryzacji chwalił się, że już niebawem pod Wrocławiem zacznie się budowa fabryki amerykańskiego producenta procesorów, Intela. Miał to być jeden z wielkich sukcesów nowego rządu. W fabryce półprzewodników w Miękini zatrudnienie miało znaleźć ok. 2 tys. osób. Jednak w poniedziałek Krzysztof Gawkowski musiał ogłosić, że Intel wycofuje się z inwestycji. W komunikatach medialnych Ministerstwo Cyfryzacji kładło bardzo mocny nacisk na fakt, że producent procesorów wycofuje się nie z winy rządzących, ale z powodu sytuacji finansowej w samym Intelu. Firma zawiesiła na dwa lata swoje inwestycje w całej Europie. Tylko czy ta sytuacja rzeczywiście jest takim zaskoczeniem? A może wystarczyło wpisać w wyszukiwarkę Google hasło „Intel” i przeczytać kilka artykułów o tym producencie mikroprocesorów?

Trzy małpy

Japońskie przysłowie: mizaru, kikazaru, iwazaru oznacza: nie widzieć, nie słyszeć i nie mówić nic złego. Jego przedstawieniem jest rzeźba lub rysunek trzech siedzących obok siebie małp, z których jedna zasłania sobie uszy, druga oczy, trzecia pysk. Działanie decydentów w sprawie inwestycji w fabrykę Intela przypomina trochę taką konformistyczną postawę wobec przeciwności losu.

Ale zacznijmy od początku. Dla niezorientowanych – Intel to jeden z największych producentów mikroprocesorów na świecie. W ostatnich latach pozycja firmy z Santa Clara w Kalifornii zaczęła jednak słabnąć na rzecz konkurencji.

Ludzie z Ministerstwa Cyfryzacji powinni być doskonale zorientowani, z kim robią interesy i w jakiej kondycji jest firma potencjalnego partnera. To nawet nie zdrowy rozsądek, lecz podstawowa zasada w biznesie.

Czy zatem kłopoty z Intelem były do przewidzenia? Nawet jeśli ktoś nie chce stawiać się w roli wszechwiedzącej wyroczni, może stwierdzić, że tak. Zła passa kalifornijskiej firmy trwa już od kilku lat, ale ostatnie miesiące są wręcz spektakularną klapą. Na początku sierpnia 2024 r., czyli zaledwie miesiąc temu, Intel zwolnił 15 tys. pracowników, obcinając przy tym koszty w samych Stanach Zjednoczonych o 40 mld dol. Działania firmy w ostatnim czasie ogólnie raczej nie odpowiadają inwestorom, co odzwierciedlają ceny jej akcji, które z 70 dol. spadły do zaledwie 20 dol. (tak nisko akcje Intela nie stały od 11 lat). Tylko od początku tego roku cena akcji zmalała o 58%.

Gigant w kłopocie

Rada nadzorcza Intela już zeszłej wiosny sugerowała prezesowi Patowi Gelsingerowi, aby ten zwrócił większą uwagę na strategię dotyczącą sztucznej inteligencji. Obawiano się, że koncern straci rynek produkcji chipów dla generatywnej sztucznej inteligencji, która pojawiła się wraz z uruchomieniem ChatGPT przez OpenAI. Nie trzeba wspominać, że ten nowy rynek jest dziś wart setki milionów dolarów. Jak widać po sytuacji na rynku mikroprocesorów, Gelsinger albo nie posłuchał, albo coś mu nie wyszło, Intel bowiem jest w ogonie sprzedaży procesorów AI. Być może dlatego, że właściwie nie ma ich w ofercie. Pozostaje w tyle zarówno za Nvidią (producentem kart graficznych), jak i za swoim wieloletnim konkurentem AMD. Aby zobrazować skalę problemu, dość powiedzieć, że Nvidia w ostatnim roku zbliżyła się do wartości 3 bln dol., podczas gdy wartość Intela w tym samym czasie spadła ze 150 mld dol. do zaledwie 80 mld dol.

Ten artykuł przeczytasz do końca tylko z aktywną subskrypcją cyfrową.

Technologie

Sieć w silosie

Rewolucja związana ze sztuczną inteligencją może niedługo przynieść koniec otwartego internetu.

Żeby dobrze zrozumieć, o co chodzi, trzeba zrobić kilka kroków wstecz i zyskać perspektywę na sposób, w jaki wszyscy korzystamy z sieci internetowej. Intuicyjnie każdy z nas odpowiedziałby, że spędzamy tam czas w sposób zindywidualizowany, ale wciąż jest to ten sam internet. Można oczywiście niuansować, mówić o darknetach, przestrzeniach niedostępnych z powodu bezpieczeństwa, cyfrowych cenzorach w Rosji, Chinach czy Korei Północnej. To wszystko mniejsze lub większe, ale jednak didaskalia, jeśli chodzi o powszechny odbiór cyfrowej sfery naszego życia.

Ideą założycielską samego internetu, ale też późniejszych jego wytworów, jak media społecznościowe, była pełna otwartość. Internet z definicji miał być jeden, globalny, powszechnie dostępny dla wszystkich. Tak myśleli o nim pierwsi twórcy, tak go rozumiał Mark Zuckerberg, opowiadając o Facebooku jako o „globalnej agorze” łączącej ludzi z najodleglejszych zakątków planety. Wystarczy sobie przypomnieć efekt, jaki wywołała arabska wiosna z 2011 r. Przez kraje Maghrebu przetoczyła się wówczas fala protestów przeciwko rządom autokratów, a ludzie, zwłaszcza młodzi, wychodzili na ulice napędzani mobilizacją w mediach społecznościowych. Facebook i Twitter stały się narzędziami obywatelskiego nieposłuszeństwa, bastionami – no właśnie – cyfrowej wolności w opresyjnym świecie analogowym.

Tamte lata to również początek tzw. dziennikarstwa obywatelskiego, koncepcji, którą dzisiaj trzeba wrzucić do worka zawierającego najbardziej naiwne pomysły w historii tej branży. Największe redakcje zaczęły dostrzegać wtedy potęgę internetu, przechodząc na wydawanie i tworzenie treści skalibrowanych pod media społecznościowe. Świat zachłysnął się pomysłem udostępnienia wszystkiego wszystkim, więc w gazetach i w portalach powstawały specjalne miejsca na publikacje czytelników. Bez zbędnego nadzoru redakcyjnego, bez cenzurowania poglądów, z prawem do nielimitowanego wyrażania własnych opinii. Nikt wtedy nie zastanawiał się, czy świat jest na to gotowy, nie mówiąc o samym sektorze dziennikarskim.

To tylko mit.

Tymczasem wolny i jednolity internet to mit, nic więcej. Sieć nigdy nie była jednakowa dla wszystkich użytkowników i nigdy nie była w pełni wolna, nawet na samym początku. Zaczynając od wysoko ustawionej bariery wejścia technologicznego, a skończywszy na tym, co szybko zajęło miejsce naiwności czasów dziennikarstwa obywatelskiego, czyli płatnych treści. Dzisiaj widać to dobitniej niż kiedykolwiek, internet można podzielić według kilku kryteriów. Najważniejsze, teraz nawet dla wielu wręcz egzystencjalne, jest kryterium finansowe, czyli to, czy dane treści otrzymujemy za opłatą, czy (pozornie) za darmo.

Złudzenia też odłóżmy na bok, nic na świecie nie jest w pełni darmowe, w internecie tym bardziej. Ale rozróżnienie na internet darmowy, zwany często otwartym, i internet płatny, zamknięty, jest mimo wszystko przydatne. Choć należy przyznać, że bywa zbyt dużym uproszczeniem.

I tak do internetu otwartego należeć będzie np. portal, na którego stronę można wejść bez zalogowania, tworzenia konta, podawania jakichkolwiek informacji, a przede wszystkim bez płacenia. Dawniej była to po prostu kwestia wpisania odpowiedniego adresu internetowego, jednak teraz coraz częściej strony wymagają wyłączenia oprogramowania blokującego wyskakiwanie tzw. pop-upów, czyli okienek z reklamami. Wiadomo, że użytkownicy tych stron płacili swoimi danymi i czasem spędzanym na stronie, także na oglądaniu reklam, ale bezpośredniej opłaty nie uiszczali.

Z kolei internet zamknięty to przestrzeń za paywallem – murem, do którego przejścia potrzeba wkładu finansowego. Tu znajdują się gazety, które żadnych treści nie udostępniają w internecie za darmo. Chcesz czytać – płać, jak w tradycyjnym kiosku. Pośrodku znajduje się jeszcze teoretycznie model freemium, powstały z połączenia angielskich słów free (wolny, darmowy) i premium (opłata). To rozwiązanie kompromisowe, polegające na udostępnianiu części (bardzo ograniczonej) treści i usług za darmo, po wykorzystaniu których za dalsze korzystanie z serwisu trzeba już zapłacić. Przykład? Cztery artykuły w miesiącu za darmo, reszta wymaga komercyjnej subskrypcji.

Dla dalszych rozważań o przyszłości internetu kluczowe jest też podkreślenie, że do otwartej jego części należą przede wszystkim media społecznościowe. Za Facebooka przecież się nie płaci, a Zuckerberg kilka lat temu w Kongresie USA powiedział nawet pod przysięgą, że płacić nie będzie się nigdy.

m.mazzini@tygodnikprzeglad.pl

Ten artykuł przeczytasz do końca tylko z aktywną subskrypcją cyfrową.

Media

Bunt maszyn czy tyrania monopoli

Jakie zagrożenia dla dziennikarstwa niesie sztuczna inteligencja? Wystarczy wpisać w wyszukiwarkę internetową dwa hasła: „dziennikarstwo” i „sztuczna inteligencja”, by zostać zalanym historiami jak z horroru. Sieć pełna jest opowieści o cywilizacyjnych wręcz zagrożeniach stwarzanych przez puszczoną wolno sztuczną inteligencję (artificial intelligence – AI). Wyobraźmy sobie chociażby kampanię masowej dezinformacji, która posługiwałaby się stworzonymi przez generatory obrazu i dźwięku wizerunkami polityków – nieodróżnialnymi od prawdziwych. Albo propagandę adresowaną do każdego z osobna – mikrotargetowaną,

Ten artykuł przeczytasz do końca tylko z aktywną subskrypcją cyfrową.

Technologie

Rozmowy (o) przyszłości

Chat GPT-3 miał być rewolucją i już się nią stał. A z rewolucjami bywa tak, że nie da się przewidzieć ich skutków Należy zacząć od szybkiego rozbrojenia głównego mitu na temat upublicznionego w listopadzie narzędzia konwersacyjnego autorstwa OpenAI. Chat GPT-3 ani nie pojawił się na rynku, ani nie zmienił naszej rzeczywistości z dnia na dzień. Choć faktycznie szeregowy użytkownik internetu uzyskał do niego dostęp zaledwie kilka tygodni temu, w środowisku programistów, ale też ekspertów zajmujących się

Ten artykuł przeczytasz do końca tylko z aktywną subskrypcją cyfrową.