Internetowa propaganda

Internetowa propaganda

Badania z Oksfordu pokazują, jak prawicowi politycy i nacjonaliści manipulują polskimi użytkownikami sieci

„Jednym z niepokojących aspektów sprawy jest to, że oczywiste boty rozsiewają wysoce zapalne i często ksenofobiczne treści”, napisał Robert Gorwa, członek zespołu badającego propagandę komputerową w dziewięciu krajach, w raporcie Oxford Internet Institute na temat manipulowania przez polityków polskimi użytkownikami sieci. I dodał, że jest to problem o szczególnym znaczeniu, ponieważ tak zmanipulowane treści są obserwowane przez zwyczajnych odbiorców i traktowane jak sygnały tego, czym interesuje się opinia publiczna i co myślą ludzie. Tymczasem w rzeczywistości są one wynikiem propagandy i celowej dezinformacji, bardzo sprawnie rozsiewanej za pomocą Facebooka i Twittera oraz komentarzy zamieszczanych w wielu innych miejscach w sieci – choćby na forach stron informacyjnych.

W naszym kraju, wynika z konkluzji raportu zatytułowanego „Komputerowa propaganda w Polsce”, jest pod tym względem gorzej niż w Wielkiej Brytanii, we Francji i w Niemczech, a podobnie jak w Stanach Zjednoczonych w okresie kampanii prezydenckiej. Co jest porównaniem o tyle istotnym, że we wszystkich tych krajach dostrzeżono wagę problemu i stał się on przedmiotem troski opinii publicznej oraz specjalistów. Powołano komisje parlamentarne do wyjaśnienia skali zjawiska, a na firmy zarządzające platformami społecznościowymi wywierano nacisk, by zapanowały nad sytuacją. We Francji przed ostatnimi wyborami prezydenckimi doprowadziło to do usunięcia z Facebooka 30 tys. fałszywych kont. Był to zapewne jeden z powodów, dla których nad Loarą obroniono się przed falą populizmu.

Nie udało się to w Polsce i zapewne m.in. z tego powodu trafiliśmy pod lupę naukowców z Oksfordu. Gołym okiem było też widać ogromne podobieństwa między komunikacją w sieci, która wspierała wybór Trumpa lub brexit, i tą popierającą PiS oraz Andrzeja Dudę.

Jeden pisze za 15

„Podczas gdy komentatorzy skłaniają się ku temu, by łączyć te zmiany (chodzi o zmiany w Polsce – przyp. aut.) z szerszym trendem prawicowego populizmu w Europie, ich interesującym aspektem, który pozostaje niedostatecznie zbadany, jest to, jaką rolę odegrał w nich internet oraz media społecznościowe”, napisał Gorwa i postarał się parę spraw wyjaśnić. W tym celu przeprowadził badania jakościowe, na które złożyły się wywiady ze specjalistami. Dotyczyły one głównie Facebooka, gdzie trudniej o analizy statystyczne, a liczba komunikacji ma mniejsze znaczenie. Później uzupełniono je ilościowym badaniem Twittera, które potwierdziło, jak źle jest z polską siecią.

Szczególnie ciekawe okazały się rozmowy z jednym z praktyków manipulowania siecią. „W ciągu ostatnich 10 lat jego firma stworzyła ponad 40 tys. unikalnych tożsamości, każdą z wieloma kontami na różnych platformach społecznościowych i portalach, unikalnymi adresami IP, a nawet własnymi osobowościami, kreując kilkaset tysięcy fałszywych kont, które były wykorzystywane w polskiej polityce oraz wielu wyborach”, relacjonuje Robert Gorwa w raporcie i dokładnie opisuje, co później robi się z takimi kontami. A działa to tak, że każdy pracownik firmy zarządza mniej więcej 15 tożsamościami. Każda z nich ma swój styl, swoją historię i ludzi, na których wpływa. Nie chodzi bowiem o to, by bezpośrednio wpływać na opinię publiczną. Bardziej liczy się wpływanie za pomocą sygnałów popularności (lajków, przychylnych komentarzy) na liderów opinii – blogerów, dziennikarzy, polityków, administratorów popularnych stron, ważnych aktywistów.

„Poprzez infiltrację wpływowych grup na Facebooku, podkładanie komentarzy i bezpośrednie rozpoczynanie dyskusji z tymi liderami opinii dąży się do celu, którym jest przekonanie wybranych osób, że podążający za nimi szczerze wierzą w określony argument, i dostarczenie długoterminowych bodźców pchających w kierunku pewnych strategicznie określonych pozycji”, czytamy w raporcie. Co oznacza mniej więcej tyle, że zadaniem tych ludzi jest pisanie komentarzy, które przekonają osoby mające poglądy inne od wygodnych dla zleceniodawcy, że te są niepopularne, i zniechęcą do zabierania głosu lub skłonią do zmiany poglądów.

Gorwa nie sprawdzał, czy tak to działa, ale praktyka korzystania z sieci każe stwierdzić, że jest to metoda nie tylko makiaweliczna, ale też wyjątkowo skuteczna. Badania pokazują bowiem, że dla wielu odbiorców informacji w sieci komentarze są równie wiarygodne jak artykuły, do których się odnoszą – nawet gdy te pochodzą z zaufanych i poważnych źródeł. Efekt jest więc podwójny. Nadawcy niepopularnych komunikatów zaczynają z nich rezygnować, bo wszyscy lubimy mieć rację i otrzymywać pozytywny sygnał zwrotny. W oczach innych zaś taki komunikat traci na wiarygodności, skoro nie wszystkim się podoba i istnieje popularniejszy ogląd sprawy.

Skłócanie społeczeństwa

Do tworzenia takiego popularniejszego stanowiska służą metody opierające się na wykorzystaniu algorytmów statystycznych zarządzających treściami publikowanymi w portalach. Polegają one na zapewnianiu lajków, udostępnień i pozytywnych komentarzy, które budują przekonanie, że głoszony pogląd jest popularny (nazywa się to niekiedy produkowaniem zgody), i na podbijaniu wygodnych tematów oraz informacji – często nieprawdziwych – w taki sposób, by trafiały do jak największego grona odbiorców. O skali zjawiska przekonuje badanie Gorwy przeprowadzone na polskim Twitterze. Tu, inaczej niż na Facebooku, większe znaczenie mają boty, które na podstawie algorytmu generują treści oraz reakcje. Ich liczba wiele mówi o tym, kto manipuluje internetem.

Badanie rozpoczęto od przyjrzenia się 50 ze 100 najpopularniejszych polskich kont w tym serwisie i znalezienia najpopularniejszych tematów, a raczej tzw. hashtagów. Wybrano ich 30 – wśród nich #smolensk – a następnie przeanalizowano, jak wyglądała związana z nimi aktywność w okresie trzech tygodni w marcu i kwietniu 2017 r. Stworzono bazę danych ponad 50 tys. wpisów i skupiono się na wykryciu fałszywych kont, a także szczegółowej analizie propagowanych przez nie treści i tego, jak pomagają im się rozchodzić w sieci (szczegółowy opis metodologii znajduje się w raporcie na stronach University of Oxford). Za podejrzane uznano 500 kont, były to np. te, które produkowały po 200 wpisów dziennie na jeden temat i z jednym hashtagiem, co pozwalało podnieść jego widoczność. Stanowiły one 4,97% wszystkich, które znalazły się w bazie danych. Ten niewielki odsetek kont produkował jednak prawie 34% treści. Wspomniane konta podzielono później według tego, jakie treści promowały. Większość – 263 z 500 – zaliczono do kategorii prawicowe, co oznacza tyle, że promowały pomysły PiS lub radykalnych nacjonalistów.

Były to niezwykle płodne konta. Nieco ponad 250 profili odpowiadało za ok. 20% całej komunikacji w tym okresie. Ilość przytłaczająca, która stwarza wrażenie popularności propagowanych idei i światopoglądu. Samo to jest problemem. Większym jednak jest to, co się propaguje w ten sposób i po jakie metody sięga. „Te konta zostały zidentyfikowane także za sprawą swojej tendencji do propagowania ultrakonfliktowych treści, szczególnie dotyczących katastrofy w Smoleńsku i innych drażliwych kwestii politycznych”, pisze Gorwa. Charakteryzowały się też skrajną retoryką oraz częstym podawaniem dalej treści ze znanych niewiarygodnych źródeł. „Główne źródła wiadomości przekazywanych dalej w obozie prawicy to m.in. TVP, TV Republika i wPolityce, a także treści ze znanych alt-prawicowych (alt-prawica – prawica alternatywna – przyp. red.) kont takich jak V of Europe, które tweetuje budzące wątpliwości historie z Breitbarta, Infowars i Russia Today”, czytamy w zawartej w raporcie analizie.

Oprócz tego zaobserwowano, że „wpisy z oficjalnych kont PiS były podawane dalej i lubiane przez pewną liczbę zautomatyzowanych profili i jako takie sprawiały wrażenie bardziej popularnych, kiedy obserwowali je dziennikarze, inni politycy i zwyczajni użytkownicy”.

Po trupach do celu

Skutki tak prowadzonej komunikacji są wielowymiarowe. Jest ona niezwykle skuteczna, ponieważ media społecznościowe są w tej chwili najbardziej opiniotwórczym źródłem informacji (o ile można w tym wypadku mówić o informacjach). Przynosi wymierne efekty polityczne, ale ma też skutki społeczne. Zaognianie sporów – bardzo dobrze współgrające z algorytmami sieci społecznościowych i wykorzystujące ich słabe strony – dawanie poczucia racji ksenofobom i agresywnym nacjonalistom to zabawa zapałkami na beczce prochu.

Wydanie: 7/2018

Kategorie: Media

Napisz komentarz

Odpowiedz na treść artykułu lub innych komentarzy