Kto (naprawdę) nas namierza?

Kto (naprawdę) nas namierza?

Platformami społecznościowymi kierują nie sympatie polityczne, ale logika zysku

Karolina Iwańska – prawniczka, członkini zespołu Fundacji Panoptykon działającej na rzecz ochrony wolności obywatelskich przed zagrożeniami związanymi z rozwojem nowych technologii, zajmuje się koordynacją badań i rzecznictwem na szczeblu unijnym.

Facebook, Twitter i YouTube stały się jednymi z głównych kanałów komunikacji. Ogromny zakres danych, jakie zbierają na temat użytkowników, oznacza dla polityków możliwość dopasowywania przekazu do indywidualnych poglądów czy obaw wyborców.
– Prześledzenie rzeczywistej skuteczności spersonalizowanych reklam politycznych jest niezwykle trudne, zwłaszcza że są one jedynie elementem szerszych strategii wyborczych. Badania pokazują jednak, że takie reklamy mogą być skuteczne w przypadku osób niezdecydowanych lub tych, które wcześniej nie głosowały. W sytuacji, gdy do wygrania wyborów (np. na szczeblu lokalnym) nierzadko potrzebne jest zdobycie kilkuset dodatkowych głosów, może to być języczkiem u wagi.

Specyfiką mediów społecznościowych jest także to, że w znacznej mierze decydują za użytkowników, jakie wpisy czy filmy oni zobaczą.
– Duże platformy internetowe są w praktyce kuratorami treści i uwagi. Obiecują nam usługę skrojoną zgodnie z naszymi zainteresowaniami i potrzebami, co wydaje się wartościowe w świecie nadmiaru informacji. Problem w tym, że działanie platform jest tak projektowane, by realizować komercyjne interesy ich twórców, a nie potrzeby użytkowników. Zadaniem serwisów społecznościowych jest zatrzymać naszą uwagę i sprawić, że spędzimy na nich więcej czasu i zostawimy więcej danych, które wzbogacą nasze profile marketingowe oferowane reklamodawcom. Platformy żerują na podstawowych emocjach, dzięki czemu mogą manipulować naszymi potrzebami.

W 2014 r. wyszło na jaw, że Facebook przeprowadził eksperyment psychologiczny na 700 tys. użytkowników, bez ich wiedzy i zgody. Osoby, które widziały mniej pesymistycznych treści, rzadziej tworzyły negatywnie nacechowane posty. I analogicznie – im więcej pozytywnych treści, tym więcej pozytywnych postów. To tylko przykład z większego eksperymentu, któremu jesteśmy poddawani – platformy nieustannie się uczą na podstawie naszych reakcji oraz reakcji innych i na bieżąco dostosowują swoje działanie.

Kontrola nad tym, jakie treści i w jakiej kolejności wyświetlają się poszczególnym użytkownikom, daje potężną władzę platformom, które stały się tak ważnym źródłem informacji.
– Media społecznościowe są graczami politycznymi w tym sensie, że mają udział w kształtowaniu naszego obrazu świata. I trzeba pamiętać, że tym, jak zarządzają one prezentowaną nam treścią, kierują nie sympatie polityczne, ale logika zysku, nawet jeśli efekt może się wydawać polityczny. Badacze z Northeastern University w Bostonie ustalili, że reklamodawcy polityczni muszą zapłacić więcej za dotarcie do użytkowników o przeciwnych poglądach. Nie oznacza to jednak dyskryminacji takiej czy innej opcji politycznej, lecz wynika z prostego rachunku zysków i strat – statystycznie użytkownicy chętniej zareagują na reklamę, która nie powoduje u nich dyskomfortu. Działanie platform jest tak zoptymalizowane, by nie wywoływać negatywnych emocji, które mogłyby spowodować wyjście z serwisu, dlatego premiują one treści zgodne z poglądami poszczególnych użytkowników.

Taki model biznesowy mediów społecznościowych sprawia, że z czasem zaczynamy widzieć wyłącznie argumenty „naszych”. Zagrożenia dla demokracji niektórzy widzą ponadto w zasadach publikacji treści czy blokowania kont. Zwłaszcza środowiska prawicowe widzą w nich współczesną formę cenzury.
– Wolność słowa nie oznacza przyzwolenia na mowę nienawiści czy nawoływanie do przemocy. Ważne jednak, by przy okazji walki ze szkodliwymi społecznie treściami nie znikały z internetu treści legalne. W tym kontekście kluczowe jest wprowadzenie mechanizmów, które zwiększą przejrzystość procesu moderacji oraz umożliwią użytkownikom skuteczne odwoływanie się od decyzji platform. Poza możliwością weryfikowania decyzji w sprawie blokad pojawiają się postulaty zewnętrznej kontroli nad samymi regulaminami platform, sprawowanej przez niezależny organ ponadnarodowy lub sąd.

W grudniu Komisja Europejska ogłosiła długo wyczekiwane propozycje w zakresie rynku cyfrowego. Obejmują one także kwestie ważne dla jakości życia publicznego.
– Mowa o dwóch aktach prawnych: o usługach cyfrowych (Digital Services Act, DSA) i o rynkach cyfrowych (Digital Markets Act, DMA). Ten pierwszy reguluje zasady odpowiedzialności platform za umieszczane na nich materiały i wprowadza rozwiązania mające zapewnić przejrzystość reklam oraz kryteriów rekomendowania treści. Jeśli zostanie przyjęty, wszystkie platformy będą musiały nam wyjaśniać, dlaczego zobaczyliśmy konkretny komunikat (np. w związku z przynależnością do jakiej kategorii). Platformy mające powyżej 45 mln użytkowników będą miały dodatkowe obowiązki, np. będą musiały prowadzić publicznie dostępne biblioteki reklam. Będą również zobowiązane wyjaśnić działanie swoich algorytmów personalizujących treść i umożliwić użytkownikom całkowitą rezygnację z personalizacji lub modyfikację jej parametrów. Na przykład samodzielny wybór tematyki postów, które będą pokazywane w pierwszej kolejności, lub decyzję o pokazywaniu postów znajomych przed postami obserwowanych stron.

Z kolei Digital Markets Act jest nastawiony na zwiększenie konkurencji. Formułuje konkretne zakazy i obowiązki dla największych platform, tzw. strażników dostępu. Kilka z tych regulacji ma duży potencjał – np. zakaz łączenia danych z różnych źródeł może poważnie utrudnić Facebookowi czy Google’owi tworzenie głębokich profili użytkowników, opartych na obserwacji ich aktywności nie tylko na danej platformie, ale również w innych serwisach, które do niej należą (jak Instagram w przypadku FB), oraz na innych stronach internetowych (służą do tego choćby skrypty Google Analytics).

Jak oceniać zaprezentowany pakiet regulacji?
– Przepisy dotyczące moderacji treści mogą znacząco ograniczyć arbitralność platform. DSA wprowadza chociażby możliwość odwoływania się od ich decyzji, również do niezależnego organu, a także gwarancję, że ostatecznych rozstrzygnięć nie będzie dokonywała sztuczna inteligencja (jak często dzieje się obecnie). Niestety, wiele do życzenia pozostawiają projektowane przepisy dotyczące dopasowywania reklam oraz innych treści do użytkowników na podstawie informacji zebranych na ich temat. Dotychczasowe doświadczenia pokazują, że zaproponowane wymogi w odniesieniu do przejrzystości są zbyt ogólne i pozostawiają platformom zbyt szerokie pole do interpretacji, przez co istnieje ryzyko, że nie dowiemy się o ich praktykach dużo nowego. Dziwi też brak zakazu dopasowywania reklam do danych związanych ze zdrowiem czy bez wyraźnej zgody użytkownika. Sama przejrzystość, choć kluczowa do weryfikacji nadużyć, to za mało.

Czy nowym unijnym przepisom dotyczącym usług cyfrowych powinny towarzyszyć zmiany w innych sferach, np. w krajowym prawie wyborczym?
– W 2019 r. wspólnie z Fundacją ePaństwo i firmą badawczą Sotrender przeprowadziliśmy badanie „Kto (naprawdę) Cię namierzył?”, dotyczące reklamy politycznej na FB. Wynika z niego, że przepisy naszego Kodeksu wyborczego odnoszące się do prowadzenia agitacji w internecie nie są dostosowane do współczesnych realiów. Komitety wyborcze nie muszą składać osobnych sprawozdań z wydatków w mediach społecznościowych. Nie ma też obowiązku przedstawiania faktur od platform, w związku z czym częste jest okazywanie zbiorczej faktury od domu mediowego za zarządzanie kampanią. Nie pozwala to zweryfikować, ile pieniędzy faktycznie zostało wydanych na reklamy na platformach ani czy ta kwota pokrywa się z kwotą wynikającą z bibliotek reklam. Nie wspominając o tym, że komitety wyborcze całą dokumentację dostarczają w wersji papierowej, przez co kompleksowa analiza i wykrycie nadużyć są niezwykle trudne.

Na razie władze deklarują jedynie wprowadzenie przepisów chroniących wolność słowa w sieci.
– Pełny tekst ustawy opublikowano dopiero 1 lutego. Niestety, szumne zapowiedzi ograniczenia arbitralności platform nie znalazły w nim odzwierciedlenia. W praktyce ta ustawa będzie chronić wolność słowa w stosunku do wybranych poglądów i niektórych grup, które dziś czują się dyskryminowane. A to dlatego, że nad decyzjami moderacyjnymi platform będzie czuwać Rada Wolności Słowa, której członkowie mogą być wybierani zwykłą większością głosów w Sejmie, w dodatku nie muszą spełniać zbyt wyśrubowanych warunków (np. mogą być członkami partii). Jeśli dodamy do tego dość swobodne kryteria, którymi rada miałaby się kierować w swoich sądach (będzie mogła chociażby odmówić przywrócenia treści, jeśli uzna, że „naruszają dobre obyczaje”), rodzą się uzasadnione obawy, że poziom ochrony niekoniecznie będzie dla wszystkich równy. W obecnej rzeczywistości politycznej trudno ufać, że taka rada stanie w obronie np. narażonych na blokowanie kont przedstawicieli mniejszości seksualnych.

To nie wszystko – ustawa ministra Ziobry tylnymi drzwiami wprowadza masową inwigilację obywateli. Zgodnie z nią serwisy internetowe mają przez rok przechowywać takie dane jak adresy IP czy aktywność użytkowników w sieci i na żądanie udostępniać je służbom.

Wróćmy do ustaleń waszego projektu badawczego.
– Okazało się, że politycy nie wybierają wyrafinowanych kryteriów dopasowywania reklam, nie prezentują też sprzecznych komunikatów. Zaobserwowaliśmy jednak, że – przy bardzo ogólnych kryteriach adresowania – budżety na poszczególne reklamy były bardzo małe, a więc nie pozwalały na dotarcie do wszystkich użytkowników należących do danej grupy. Tym samym ogromną rolę w wyborze osób, którym ostatecznie wyświetlono daną reklamę, odgrywał sam Facebook, którego oprogramowanie ustalało, dla kogo będzie ona najbardziej odpowiednia. Niestety, nie jesteśmy w stanie zweryfikować powodów, dla których tak się stało, ponieważ narzędzia przejrzystości oferowane przez FB są niewystarczające. Jednocześnie platforma nie daje użytkownikom realnej kontroli nad tym, jak wykorzystuje się ich dane: jakie wnioski są wyciągane na ich podstawie ani które są używane na potrzeby kampanii reklamowych, również politycznych.

Do jakiego stopnia możemy sami przeciwstawiać się praktykom portali społecznościowych – korzystając z udostępnianych przez nie opcji, ale także zewnętrznych narzędzi?
– W tym momencie jesteśmy w dużej mierze zależni od tego, na co pozwolą nam platformy. Gdy zablokujemy pliki zbierające informacje na temat naszej aktywności, tzw. ciasteczka, możemy stracić dostęp do wielu stron, które nas interesują. Co więcej, nie jesteśmy w stanie zablokować możliwości obserwowania naszego zachowania przez platformy podczas korzystania z ich serwisów. Jestem przekonana, że choć stosowanie mechanizmów samoobrony pozwala wysłać firmom sygnał pewnego niezadowolenia, skuteczną kontrolę może zapewnić wyłącznie silna regulacja.

Jeden z czytelników napisał, notabene na FB, że media społecznościowe powinny działać jak telefonia: publiczny protokół wymiany danych i możliwość wyboru aplikacji do obsługi. Pojawia się coraz więcej propozycji radykalnych ingerencji w rynek cyfrowy, łącznie z podziałem największych podmiotów na mniejsze, a nawet ich nacjonalizacją.
– W mojej opinii realna zmiana mogłaby się pojawić na skutek nie tyle podziału wielkich firm technologicznych, ile „rozwarstwienia” złożonej usługi, jaką jest platforma społecznościowa. Chodzi np. o funkcjonalne rozdzielenie usługi przechowywania treści (hostingu) od usług ich szeregowania czy personalizowania. Użytkownicy mogliby wówczas wybrać korzystanie z narzędzia dobierającego wyświetlane im posty i filmy dostarczonego przez zewnętrzną firmę lub organizację pozarządową. Byłoby to możliwe, gdyby przepisy nakładały na platformy obowiązek zapewnienia pełnej interoperacyjności danych i protokołów. W miejsce zamkniętych ekosystemów kontrolowanych przez kilka firm pojawiłby się otwarty rynek rozwiązań technologicznych, a użytkownicy mogliby się cieszyć większą kontrolą nad tym, co widzą, i nad tym, jak są wykorzystywane ich dane.

Znaczący i mało przejrzysty wpływ na demokrację mogą wywierać także tradycyjne serwisy internetowe. Jakie nieoczywiste zagrożenia łączą się z przejęciem portali regionalnych i lokalnych przez państwowy Orlen?
– Dostęp do danych czytelników tworzy ryzyko manipulacji niezależnie od tego, kto nim dysponuje. Wiedza o zainteresowaniach, preferencjach i obawach 17 mln użytkowników, należących do wielu zróżnicowanych grup społecznych, jest wartościowa i pozwala np. wyłapywać tematy o największym potencjale politycznym. Dodatkowo specjalne narzędzia, tzw. piksele, umożliwiają łączenie danych zebranych na temat poszczególnych osób odwiedzających portale z tym, co wiedzą o nich platformy. Dzięki temu właściciel portali może następnie pokazywać ich czytelnikom bardzo precyzyjnie dopasowane reklamy, m.in. polityczne, na samym FB czy w Google’u.

Problem jest jednak dużo szerszy: kupując portale należące do Polska Press, Orlen – a zarazem rząd, od którego ta spółka jest zależna – usankcjonował model działania oparty na masowym naruszaniu prywatności użytkowników. To jednocześnie wysłanie innym firmom sygnału, że takie postępowanie jest w porządku, podobnie jak przymykanie oka na realne problemy rynku mediów – dominację platform internetowych, malejące dochody, spadającą jakość treści.

m.sobczyk@tygodnikprzeglad.pl

Fot. Shutterstock

Wydanie: 10/2021

Kategorie: Kraj, Wywiady

Napisz komentarz

Odpowiedz na treść artykułu lub innych komentarzy