Gdy zapragniesz hejtować

Gdy zapragniesz hejtować

Tama dla nienawistnych zachowań w sieci

Dr Piotr Surma – dyrektor zarządzający firmy Applica.AI

Choć nie jest to podstawą waszej działalności, zajęliście się hamowaniem za pomocą narzędzi sztucznej inteligencji mowy nienawiści. To była wasza inicjatywa czy realizacja jakiegoś zamówienia?
– Dostrzegliśmy potrzebę moderacji takich treści w związku z rozmowami z jednym z głównych portali internetowych.

Dowiemy się, o który portal chodzi?
– Moderacja jest delikatną sprawą z prawnego punktu widzenia. Tutaj odpowiedzialność ponosi wydawca, a wiążące się z tym zawiłości sprawiają, że nie wymienię konkretnych klientów. W każdym razie stwierdziliśmy, że ludzie zajmujący się moderowaniem treści po prostu nie dają rady. Pojedynczy moderator musi podjąć szybką decyzję i ma ułamek sekundy, by napływające treści, różne komentarze na bieżąco przejrzeć, zrozumieć i ewentualnie zablokować. Z czysto ludzkich względów szybkie przeczytanie setek tysięcy komentarzy i właściwe zareagowanie na treści homofobiczne, antysemickie, wyrażające nienawiść na tle politycznym, narodowym, rasowym, religijnym lub antyagizmy jest praktycznie niemożliwe.

W cyberprzestrzeni przelewa się dużo obrzydliwych treści, co sprawia, że praca nad ich moderowaniem jest trudna, monotonna dla człowieka, a także obciążająca emocjonalnie. Postanowiliśmy więc stworzyć oprogramowanie, które by go wyręczało. Niebawem programem zainteresowały się inne portale, a w międzyczasie byliśmy też uczestnikami debaty poświęconej mowie nienawiści, organizowanej przez rzecznika praw obywatelskich. Reprezentowaliśmy w niej stronę technologiczną walki z hejtem w sieci. Jednak zdaję sobie sprawę, że dysponujemy tylko pewnym narzędziem, podczas gdy gros środków do walki z tym zjawiskiem, jakimi dysponuje społeczeństwo, jest natury prawnej i edukacyjnej.

Co może zrobić wasz produkt?
– Applica Moderacja nie jest rozwiązaniem służącym wyłącznie do eliminowania wulgaryzmów w sieci. Potrafi ono znacznie więcej – jest bardzo skuteczne w walce z wątpliwą kreatywnością niektórych internautów i w namierzaniu sposobów, do jakich użytkownicy sieci uciekają się, by obrażać innych, sączyć mowę nienawiści. Arsenał tych form jest niesłychanie bogaty: od prostych, jak stosowanie pisowni anglojęzycznej, po specyficzne użycie znaków przestankowych albo czcionek z innych alfabetów, np. rosyjskiego. Czasem są to neologizmy przypominające polskie wulgaryzmy. Zdarza się, że takich obraźliwych wpisów nie tylko sztuczna inteligencja, ale nawet inteligentny człowiek nie potrafi w pełni rozszyfrować.

Rozumiem trudność, jaką napotkali programiści.
– Internauci traktują obrażanie przeciwników niemal jako zabawę, grę wojenną, i próbują walczyć ze zautomatyzowaną moderacją w taki sposób, aby ich wpis był zrozumiały dla człowieka, ale nieuchwytny dla sztucznej inteligencji.

Czyli sztuczny moderator może się okazać bezsilny?
– Czasami tak, lecz może być również zbyt bezwzględny w interpretacji zamieszczanych treści. W przypadku oceny obraźliwych wpisów maszyna musi nie tylko wyszukiwać słowa kluczowe, które mogą być użyte jako obraźliwe, ale także prawidłowo odczytywać kontekst ich zastosowania. Jeśli np. wobec konkretnej osoby pojawi się słowo asfalt, szmata itd., możemy być pewni, że jest to naganne. W przypadkach wątpliwych zawsze można zapytać żywego moderatora, dlaczego podjął taką, a nie inną decyzję. Maszyny, która go zastępuje, już nie zapytasz.

Problemem walki z mową nienawiści jest skala zjawiska.
– Właśnie. Tutaj opieranie się na pracy jednego, dwóch czy dziesięciu moderatorów nie daje żadnej gwarancji, że postawi się tamę toksycznym wpisom. Wysyp mowy nienawiści jest tak ogromny i obejmuje tyle dziedzin, że niektórzy nadawcy wywieszają białą flagę. Nieprzypadkowo jeden z ogólnopolskich wydawców internetowych w pewnym momencie zrezygnował z zamieszczania komentarzy pod wypowiedziami autorów. Była to jedyna racjonalna decyzja, tym bardziej że nadawca nie dysponował odpowiednim narzędziem do przeczesywania wpisów internautów.

A jak jest obecnie? Widać jakiś efekt zastosowania sztucznej moderacji?
– Duża część komentarzy publikowanych w polskim internecie zostaje poddana takiej weryfikacji. Trudno powiedzieć dokładnie, jak duża, być może nawet kilkadziesiąt procent wpisów przechodzi przez stworzony przez nas silnik. Dotyczy to platform, które są bardzo wrażliwe na mowę nienawiści. Jeśli chodzi o największe portale internetowe, to właściwie wszystkie, niezależnie od orientacji politycznej, dbają o jakość dyskusji. Dodatkowym efektem zastosowania moderacji opartej na sztucznej inteligencji jest też to, że nawet jeśli dosyć wyrafinowany obraźliwy wpis trafi do publikacji, sami użytkownicy proszą o jego usunięcie. Tego wcześniej nie było. Ale są niestety media niezainteresowane moderacją, a dla części czytelników im bardziej obraźliwa czy obrzydliwa jest dyskusja na forum, tym większa jej atrakcyjność.

Przesada w stosowaniu gilotyny na wyzwiska może się okazać bolesna i krzywdząca dla czytelników, którym zabroni się używania takich słów jak wspomniane asfalt czy szmata w innym, nieobraźliwym kontekście.
– Ten problem mamy opanowany. Pracujemy na poziomie semantyki, a nie słów kluczowych czy wzorców zachowań językowych. Nasza sztuczna inteligencja „rozumie” metajęzykowe znaczenie wpisu. To umożliwia precyzyjne eliminowanie mowy nienawiści bez omyłkowego wycinania elementów nieskrępowanej wypowiedzi.

Maszyna przecież nie rozumie kontekstu debaty, więc muszą ją zaprogramować specjaliści mający duże kompetencje w naukach społecznych.
– Dlatego sporą część naszego zespołu stanowią lingwiści komputerowi. Są to osoby o dużej wrażliwości językowej. Spośród 45-osobowego personelu wiele ma doktoraty z lingwistyki komputerowej albo wykorzystuje prowadzone przy okazji badania w pracach naukowych.

Czy gdyby przez waszą maszynę przepuścić teksty współczesnych raperów, w których roi się od wulgaryzmów i gróźb karalnych, to taki moderator odrzuciłby je w całości?
– Niewykluczone, że tak by się stało. Ale na tym przykładzie widać różnicę między wolnością twórczości artystycznej a regułami dyskursu publicznego na forach internetowych. Raperom wolno więcej.

Czy sztuczna inteligencja może pomóc w odnajdywaniu nadawców niepożądanych treści?
– My nie mamy do czynienia z informacjami pozwalającymi zidentyfikować konkretnego autora toksycznej wypowiedzi. By to zrobić, trzeba mieć dostęp do danych, które posiadają wyłącznie wydawcy internetowi. Mowę nienawiści do organów ścigania może jednak zgłosić każdy, zarówno stowarzyszenie walczące z nią programowo, jak i osoba prywatna.

A czy osoba publiczna regularnie szkalowana i obrażana na forach dyskusyjnych może sobie wykupić maszynę do monitorowania treści?
– Tylko wydawca zarządzający treściami może skorzystać z naszego rozwiązania. Ktoś inny, gdy poczuje się dotknięty, samodzielnie nie usunie obraźliwego wpisu, nie ma możliwości „automatycznego” zarządzania swoim wizerunkiem. I to chyba dobrze, bo gdyby wyposażyć go
w narzędzie do wykrywania niepożądanych treści, ukazywałyby się tylko pochlebne, pozytywne opinie.

Burzliwy rozwój sztucznej inteligencji, wykorzystywanej w wielu dziedzinach, jest postrzegany jako zagrożenie dla rynku pracy. Teraz nawet brygady internetowych moderatorów w mediach społecznościowych i elektronicznych mogą się poczuć niepewnie.
– Automatyzacja bywa postrzegana jako groźniejsza od mowy nienawiści, bo zastępuje człowieka maszyną, zwłaszcza w tych rolach, w których góruje nad człowiekiem np. szybkością. Jest to jednak błędne podejście, najczęściej bowiem człowiek ma wtedy możliwości awansu na stanowisko wydającego polecenia „robotom”. Ludzie nie będą tracić pracy, będą przesuwani z miejsca, gdzie wykonuje się powtarzalne czynności, do pracy bardziej kreatywnej, angażującej umysłowo.

Applica zajmuje się głównie automatyzacją pracy wymagającej rozumienia dokumentów, i to nie tylko polskich, ale także obcojęzycznych. Czy sztuczna inteligencja łatwo tłumaczy obce teksty?
– Nie tłumaczymy tekstów, tylko pracujemy nad nimi w oryginalnej wersji językowej. Zadanie polegające na „rozumieniu” umowy kredytowej lub polisy ubezpieczeniowej od razu jest realizowane w danym języku. Nasze rozwiązania są wielojęzyczne. Są uczone nowych języków poprzez zautomatyzowaną analizę ogromnych zbiorów danych publicznych (tzw. uczenie nienadzorowane). Maszyna następnie analizuje umowę czy wniosek skierowany do banku, instytucji ubezpieczeniowej lub korporacji. Właśnie utworzyliśmy biuro firmy w Nowym Jorku.

Na marginesie wspomnę, że naszymi inwestorami są Cogito Capital Partners, fundusz inwestycyjny z biurami w Warszawie i Nowym Jorku właśnie, oraz Barclays, jeden z największych banków inwestycyjnych. Applica korzysta również z dotacji unijnych za pośrednictwem NCBiR i dzięki temu zbudowaliśmy bardzo innowacyjny produkt, który umożliwia nam konkurowanie na najbardziej zaawansowanych technologicznie rynkach, w tym w USA. Nasz zespół ma poza tym aspiracje naukowe, przygotowujemy publikacje na temat sztucznej inteligencji, mamy na koncie wystąpienia na prestiżowych konferencjach naukowych na temat metod rozumienia tekstu. Ostatnio prezentowaliśmy uzyskiwane przez nas wyniki na konferencji ACL, gdzie ponad połowa wystąpień przypadła naukowcom z Chin, którzy obok Amerykanów są najbardziej zaawansowani w tej dziedzinie.

Czy tworzycie też oprogramowania w języku chińskim?
– Nie pracujemy z językiem chińskim, nie dlatego, że jest dla nas niedostępny, lecz z powodu bardzo wysokiego zaawansowania Chin w dziedzinie sztucznej inteligencji. Raczej staramy się z nimi konkurować na innych rynkach.

Przeciętny użytkownik internetu bardzo często korzysta z wirtualnych tłumaczy, które jednak, jeśli chodzi o poprawność językową, pozostawiają wiele do życzenia.
– Nie zajmujemy się tłumaczeniem maszynowym, ale wiadomo, że jakość tłumaczenia zależy od wielkości zbioru danych wykorzystywanych do uczenia. Im więcej danych i użytkowników, tym doskonalsze tłumaczenie. Na przykład maszynowe tłumaczenie między hiszpańskim a angielskim jest na pewno lepsze niż między łotewskim a węgierskim. Nasze modele sztucznej inteligencji pracują bezpośrednio z danym językiem, a nie przekładają z jednego na drugi. Nie zajmujemy się również systemami dialogowymi, tzw. chatbotami. To także bardzo żywiołowo rozwijający się obszar wykorzystywania sztucznej inteligencji.

Na niektórych platformach, gdzie też weryfikuje się czy moderuje wpisy, np. w Wikipedii, panuje przekonanie, że żadna maszyna nie zastąpi w tej roli człowieka.
– Zgoda, jeśli założymy, że ten człowiek ma wystarczająco dużo czasu i jest znakomicie wynagradzany. W praktyce można powiedzieć, że najlepszy, nie do pokonania, jest tandem człowiek plus maszyna, w którym maszyna pracuje precyzyjnie i ogromnie szybko, a człowiek czuwa nad jej działaniem.


PIOTR SURMA – doktor nauk humanistycznych, absolwent francuskiej uczelni ENST de Bretagne. Współtworzy innowacyjne przedsięwzięcia w obszarze IT i sztucznej inteligencji. Od roku 2007 zarządza innowacyjnymi przedsięwzięciami z domeny IT. Od 2014 r. współtworzy firmę Applica.AI, specjalizującą się w robotyzacji procesów biznesowych opartych na tekstach metodami sztucznej inteligencji.


Fot. Krzysztof Żuczkowski

Wydanie: 5/2020

Kategorie: Nowe Technologie

Napisz komentarz

Odpowiedz na treść artykułu lub innych komentarzy