Encyklopedia pod ostrzałem

Encyklopedia pod ostrzałem

Zawartość Wikipedii może już za chwilę stać się kolejnym frontem wojny informacyjnej

Niegdyś wyśmiewana, doczekała się wreszcie statusu szanowanego, a przede wszystkim powszechnie dostępnego źródła wiedzy. Jeszcze kilka lat temu w szkołach czy na uniwersytetach zakazywano jej używania, a powoływanie się na treści zaczerpnięte z tego źródła budziło nierzadko politowanie. W ciągu ostatniej dekady Wikipedia przeszła niewyobrażalną transformację statusu społecznego – od internetowego eksperymentu do największego na świecie źródła weryfikowalnych informacji. Poszerzona baza danych, ulepszony system redakcji i kontroli wpisów, bogata baza przypisów, integracja z wyszukiwarką Google’a, profilami na Facebooku i opisami kont w serwisie YouTube – to wszystko sprawiło, że darmowa encyklopedia internetowa w dużej mierze wpływa na zdobywanie wiedzy i kształtowanie opinii użytkowników sieci, zwłaszcza młodszych. Pozostaje przy tym cały czas instytucją otwartą, którą każdy może współtworzyć. Tylko że każdy w tym wypadku oznacza również zawodowców trudniących się dezinformacją na masową skalę.

Do tej pory przekłamania w Wikipedii pojawiały się przede wszystkim w formie żartów lub prowokacji. Zakładanie fałszywych stron celebrytów czy polityków, najczęściej z wyśmiewającą ich zawartością, było jeszcze kilka lat temu dość popularnym wybrykiem. Zjawisko to pozostawało jednak w dużej mierze niegroźne z dwóch powodów. Po pierwsze, przekłamania były na tyle wyraźne, że środowisko redaktorów Wikipedii, szczycące się bardzo wysokimi standardami merytorycznymi w pracy nad encyklopedią, natychmiast wyłapywało i kasowało nieprawdziwe hasła. Po drugie, zasięg Wikipedii był mniejszy niż obecnie, a jej prestiż znacznie niższy, więc w konsekwencji dezinformacja wyrządzała dużo mniejsze szkody. Od tamtego czasu wiele się zmieniło w świecie mediów i internetu. Dezinformacja stała się realnym zagrożeniem stabilności demokracji liberalnych w wielu krajach, a przekłamania, fałszywe informacje i internetowa propaganda wygrywają dziś wybory i obalają rządy. Wikipedia może zatem już niebawem stać się ofiarą własnego sukcesu i z szanowanego źródła informacji przekształcić się w kolejny – potencjalnie najbardziej niebezpieczny z dotychczasowych – front wojny informacyjnej.

Jest o co walczyć, a przejęcie nawet częściowej kontroli nad internetową encyklopedią byłoby dla specjalistów od dezinformacji ogromnym sukcesem. Najlepiej o zasięgu platformy mówią liczby. Jak podaje internetowy magazyn „Slate”, Wikipedia jest piątą najczęściej otwieraną stroną w całym internecie – przebywa na niej regularnie ok. 35 mln internautów. Spośród nich prawie 200 tys. to tzw. aktywni redaktorzy, czyli użytkownicy tworzący lub edytujący przynajmniej jedno hasło w miesiącu. W całej Wikipedii istnieje ponad 48 mln artykułów napisanych w więcej niż 300 językach, z czego niecałe 6 mln po angielsku. Mimo tak wielkiej skali platforma unikała dotychczas rażących błędów. Kolejne badania statystyczne pokazywały, że Wikipedia zawierała mniej więcej taki sam odsetek nieprawdziwych bądź niepełnych informacji, co tradycyjne książkowe encyklopedie, tworzone przez zespoły wyspecjalizowanych naukowców.

Tak wysoki standard był możliwy do utrzymania głównie dzięki bardzo rygorystycznemu systemowi klasyfikacji redaktorów. Dawniej edytować i zapisywać zmiany w Wikipedii mógł prawie każdy, a nowe treści przynajmniej przez chwilę pokazywały się na stronie bez weryfikacji. Dziś byłoby to wręcz niemożliwe – prawa do edycji tekstów z natychmiastowym trybem publikacji mają tylko redaktorzy z odpowiednio wysokim statusem, nadawanym poprzez aktywność i regularne tworzenie i poprawianie haseł.

Na pierwszy rzut oka wygląda to na dość prosty, a jednocześnie skuteczny mechanizm w walce z dezinformacją. Aby otrzymać odpowiednio wysoki status, trzeba bowiem latami pracować na bardzo zaawansowanym poziomie merytorycznym. A to – przynajmniej w teorii – wyklucza manipulację informacjami pod wpływem chwili i na potrzeby konkretnych wydarzeń, takich jak wybory.

Co się jednak stanie, jeśli skrzywieniu ulegnie system redakcyjny, a przynajmniej jego część? Im głębiej bowiem sięga Wikipedia, tym łatwiej zaszyć w niej dezinformację i trudniej ją następnie wykryć. Zresztą, żeby wywołać informacyjny konflikt w internecie, nie potrzeba nawet kłamstwa, wystarczy prawda przedstawiona za pomocą różnych optyk.

Doskonale widać to na przykładzie analizy porównawczej dokonanej przez dziennikarzy „The Jerusalem Post”, którzy zestawili ze sobą wpisy na stronach Wikipedii poświęcone wojnie Jom Kippur z 1973 r., napisane po arabsku i hebrajsku. Ponieważ hasła tak obszerne i politycznie wrażliwe nigdy nie są w internetowej encyklopedii wiernie tłumaczone z innych języków, ale pisane od zera, analiza miała na celu pokazanie ewentualnych odchyleń w obu wersjach. I faktycznie, choć w hasłach nie ma błędów czy nieścisłości, jerozolimscy dziennikarze doszukali się odchyleń w treści. Wersja arabska szeroko opisuje amerykańską pomoc militarną dla Izraela, ale analogicznemu wsparciu wojskowemu dla koalicji arabskiej udzielonemu przez Związek Radziecki poświęca jedynie krótki akapit. Jak łatwo się domyślić, wersja hebrajska zawiera to samo odchylenie, tylko skierowane w przeciwną stronę. Chociaż takie przypadki nie kwalifikują się jeszcze jako przykłady dezinformacji, doskonale ilustrują, jak Wikipedia może, niejako podskórnie, wpływać na kształt debaty publicznej w bardzo wrażliwych politycznie kwestiach.

Konflikt między Izraelem i krajami arabskimi nie jest zresztą jedynym przykładem używania Wikipedii do wybielania historii. Do podobnej sytuacji doszło na stronach w języku serbsko-chorwackim, które są poświęcone historii Bałkanów. Kilka tygodni temu europejskie media zaczęły się rozpisywać o tym zjawisku, gdy wyszło na jaw, że serbsko-chorwacka strona, pisząc na temat obozu koncentracyjnego w Jasenovacu, w którym z rąk ustaszów, członków chorwackiej faszystowskiej organizacji nacjonalistycznej, zginęło przeszło 80 tys. osób, głównie Serbów, Żydów i Romów, nazywa to miejsce „obozem karnym” i opisuje je raczej jako więzienie, nie wspominając o masowych mordach. Biorąc pod uwagę wcześniejsze liczne przykłady ignorowania rewizjonizmu historycznego przez rząd Chorwacji, można uznać wpis o Jasenovacu za świadectwo, że Wikipedia nie jest odporna na tendencje polityczne.

Unaocznił on też inny problem tej platformy – brak możliwości weryfikacji haseł pisanych w niszowych językach. Siłą rzeczy redaktorów mających nie tylko wiedzę, ale i zdolności językowe pozwalające na sprawdzanie haseł takich jak to o obozie w Jasenovacu jest bardzo niewielu. Na razie tę lukę w systemie wykorzystują rewizjoniści historyczni i radykałowie. Lada moment jednak mogą zacząć to robić zawodowi dezinformatorzy, pracujący po prostu dla tego, kto zapłaci więcej.

Jak mógłby wyglądać taki dezinformacyjny atak? Mimo wszystko byłby dość trudny do przeprowadzenia, choć nie niemożliwy. Grupa naukowców z amerykańskich uniwersytetów w Maryland i Stanford przeanalizowała tzw. udane dezinformacje, czyli całkowicie fałszywe lub przekłamane wpisy, które przeszły przez sito redaktorów Wikipedii. Łącznie naliczono w anglojęzycznej wersji encyklopedii 301 takich haseł, powstałych w ostatnich siedmiu latach i utrzymujących się na platformie co najmniej tydzień.

Autorzy raportu wyodrębnili kilka cech, po których najłatwiej poznać artykuły napisane w celach dezinformacyjnych. Przede wszystkim są one znacznie dłuższe niż zwykłe teksty. Podczas gdy mediana prawdziwego wpisu w anglojęzycznej Wikipedii wynosi 71 słów, dla fałszywych haseł liczba ta była przeszło dwukrotnie większa (134). Co więcej, fałszywki niemal w całości składają się z pisanego tekstu. W prawdziwych artykułach tekst stanowi ok. 52% treści (reszta to najczęściej mapy, tabele, wykresy, dane statystyczne i zdjęcia), a w fałszywych – przeszło 90%. Innymi słowy, fałsz najłatwiej poznać po bardzo rozwlekłym tekście i braku jakichkolwiek materiałów pomocniczych. Internetowi fałszerze treści mają jednak sposoby na uwiarygodnienie swoich wpisów. Używają w tym celu przede wszystkim linków do źródeł spoza Wikipedii – w przeciwieństwie do prawdziwych wpisów w fałszywkach linków zewnętrznych jest bardzo dużo. Mniej, co do pewnego stopnia wydaje się logiczne, jest natomiast odniesień do wewnętrznych treści z encyklopedii (tzw. wikilinków). Badacze z Maryland i Stanford obliczyli, że w prawdziwym, zweryfikowanym artykule pojawiają się one niemal dwa razy częściej niż w artykule zawierającym fałszywe treści.

Z pewnością dużo trudniej zmanipulować Wikipedię niż Facebooka czy Twittera. Nie powinno to jednak obniżać naszej czujności. Dezinformacja w encyklopedii ma bowiem zupełnie inny charakter niż w mediach społecznościowych. Jest głębiej zaszyta, może nawet bardziej elitarna. I dlatego może być dużo bardziej niebezpieczna w skutkach. Naukową prawdę w internecie trzeba więc chronić wszystkimi dostępnymi środkami – sama nie obroni się na pewno.

Fot. Fotolia

Wydanie: 2018, 45/2018

Kategorie: Świat

Komentarze

  1. Filip Ratkowski
    Filip Ratkowski 6 listopada, 2018, 20:35

    Już przed kilkoma laty zauważyłem, że polska wersja Wikipedii jest wyrazisie prawicowa! Sporo przekłamań i wręcz kłamstw! Niestety! Dobry temat na artykuł.

    Odpowiedz na ten komentarz

Napisz komentarz

Odpowiedz na treść artykułu lub innych komentarzy