Świat

Jak kupić 2300 antysemitów za jedyne 30 dolarów

CrossingTheLine2Still3 (1)

Zamiast tworzyć reklamodawcom możliwość dotarcia do mikrogrup o niebezpiecznych poglądach, platformy społecznościowe powinny wyjawiać cele politycznej reklamy, zakazać używania pewnych kryteriów doboru odbiorców bądź ograniczyć liczebność grup docelowych. Jak jeszcze można powstrzymać dezinformację w sieci?

MENLO PARK, KALIFORNIA – W listopadzie 2016 roku wybory prezydenckie w USA wykazały nieodporność mediów cyfrowych na fake news, czyli po prostu sfabrykowane informacje. W mediach nie ustaje debata na temat zapobiegania dezinformacji.

Wiele też wydarzyło się w ciągu ośmiu miesięcy. Szefowie Facebooka, Google’a i Twittera stanęli przed amerykańskim Kongresem, by opowiedzieć jak strona rosyjska wykorzystała ich platformy do wywarcia wpływu na wynik amerykańskich wyborów. Szukanie rozwiązań pokazało jedynie to, że prostego panaceum nie znajdziemy.

Rosja chciała inwigilować opozycję, a zepsuła Tindera

Zamiast jednego uniwersalnego środka naprawczego potrzeba bowiem działań, które pozwolą podejść do problemu z wielu różnych stron. Współczesny ekosystem informacyjny przypomina kostkę Rubika, w której zupełnie odmienne ruchy służą „rozwiązaniu” poszczególnych kwadratów. W przypadku dezinformacji cyfrowej trzeba wziąć pod uwagę co najmniej cztery takie wymiary.

Po pierwsze, kto wprowadza dezinformację? Dezinformacja szerzona przez podmioty z zagranicy może być traktowana bardzo odmiennie – zarówno pod względem prawnym, jak i zwyczajowym – niż wprowadzające w błąd informacje rozpowszechniane przez obywateli danego państwa. Dotyczy to zwłaszcza Stanów Zjednoczonych, gdzie ochrona prawna wolności słowa nie ma sobie równych, a wpływy zagraniczne traktowane są względnie surowo.

W USA mniej wyrafinowane przypadki interwencji z zagranicy można wykryć dzięki połączeniu narzędzi analizy językowej i technik lokalizacji użytkownika, które pozwalają na identyfikację podmiotów działających spoza kraju. Tam, gdzie zawiodą zmiany wprowadzone na poziomie platform, można zastosować szerzej zakrojone interwencje państwa, takie jak np. ogólne sankcje.

Po drugie – dlaczego rozpowszechnia się fałszywe informacje? „Mylące informacje” (ang. misinformation) – czyli niezgodne z prawdą informacje rozpowszechniane nieumyślnie – są czymś zgoła innym niż fałszywe informacje (ang. disinformation) lub propaganda, które szerzy się umyślnie. Zapobieganie nieumyślnemu wprowadzaniu do obiegu mylnych informacji przez podmioty kierujące się dobrymi intencjami można, przynajmniej częściowo, osiągnąć prowadząc kampanie uczące korzystania z informacji lub poprzez inicjatywy fact-checkingowe. Bardziej skomplikowane jest jednak powstrzymywanie tych złoczyńców, którzy naumyślnie wprowadzają odbiorców w błąd, bo zależy to od konkretnych celów, jakie takie podmioty realizują.

Na przykład, w zwalczaniu tych, którym zależy na zysku – jak w przypadku niesławnych macedońskich nastolatków, którzy zarobili miliony na prowadzeniu stron rozpowszechniających fałszywe wiadomości – mogą pomóc nowe strategie sprzedaży reklam, rozbijające dotychczasowe modele zarabiania. Takie strategie jednak nie powstrzymają innych, którzy wprowadzają ludzi w błąd z powodów politycznych bądź społecznych. Jeśli takie podmioty działają jako część zorganizowanych siatek, to skuteczne zadziałać mogą tylko interwencje rozbijające całe sieci.

Trzecie pytanie to: jak fałszywe informacje wprowadzane są do obiegu? Jeśli podmioty umieszczają takie treści poprzez media społecznościowe, to mogą wystarczyć zmiany w strategiach przyjętych przez platformy i/lub przepisach rządowych. Takie zmiany jednak muszą być dopasowane do konkretnych wyzwań. Weźmy na przykład boty, czyli algorytmy, których używa się do sztucznego nagłaśniania wybranych treści. Aby je powstrzymać, platformy mogą wymagać od użytkowników ujawnienia prawdziwej tożsamości (co może stanowić problem w systemach autorytarnych, gdzie anonimowość zapewnia ochronę np. osobom działającym na rzecz demokracji). Aby ograniczyć z kolei stosowanie wyrafinowanego mikrodoboru odbiorców (microtargeting), tzn. używanie danych konsumentów i danych demograficznych w celu przewidywania zainteresowań i zachowań poszczególnych osób po to, aby wywrzeć wpływ na ich przekonania i działania, platformy będą zapewne musiały zmienić politykę prywatności i przekazywania danych oraz wdrożyć nowe zasady dotyczące reklam. Zamiast tworzyć reklamodawcom możliwość dotarcia do 2300 prawdopodobnych antysemitów za jedyne 30 dolarów, platformy społecznościowe powinny raczej – co w niektórych przypadkach już czynią – wyjawiać cele politycznej reklamy, zakazać używania pewnych kryteriów doboru odbiorców bądź ograniczyć liczebność grup docelowych.

To rodzaj wyścigu zbrojeń. Ci źli będą szybko obchodzić wszelkie zmiany jakie zastosują platformy cyfrowe. Będzie trzeba stosować wciąż nowe techniki – takie jak użycie blockchain w celu uwiarygodnienia oryginalnych zdjęć. Platformy cyfrowe będą musiały lepiej i szybciej stosować swoje strategie niż zrobią to ustawodawcy i rządy.

Same jednak platformy cyfrowe nie poradzą sobie z fałszywymi informacjami. Już z tego tylko powodu, że według niektórych szacunków media społecznościowe odpowiadają za zaledwie około 40 procent wejść na najbardziej szokujące strony rozpowszechniające fałszywe wiadomości. Pozostałe 60 procent to wejścia dokonane „organicznie” bądź poprzez „społecznościowy cień” (czyli wiadomości tekstowe bądź pocztą elektroniczną wysyłaną do znajomych). Takie ścieżki dostępu trudno kontrolować.

Ostatnim, być może najistotniejszym wymiarem problemu sfałszowanych informacji jest to, co jest rozpowszechniane. Specjaliści koncentrują się raczej na całkowicie „fałszywych” treściach, które łatwiej jest zidentyfikować. Platformy cyfrowe dysponują naturalnymi zachętami ograniczającymi takie treści, bo ludzie po prostu nie chcą wychodzić na głupców udostępniając całkowicie fałszywe historie.

Ludzie chcą jednak także czytać informacje zgodne z ich poglądami i dzielić się nimi, szczególnie wtedy, kiedy w grę wchodzą silne emocje – takie jak oburzenie. Ponieważ użytkownicy bardzo angażują się w tego rodzaju treści, platformy cyfrowe mają pokusę, aby właśnie je uwypuklać.

Takie treści nie tylko polaryzują opinię publiczną, często wprowadzają w błąd i dolewają oliwy do ognia. Są także sygnały, że mogą one podkopywać konstruktywną debatę demokratyczną:

Jak komentarze pod artykułami rozwalają sferę publiczną i nasze mózgi

Gdzie jednak przebiega granica pomiędzy niebezpiecznym brakiem porozumienia opartym na wypaczeniu danych a żywą polityczną debatą, którą napędzają sprzeczne światopoglądy? I kto, jeśli w ogóle, mógłby taką granicę wytyczyć?

Nawet jeśli udałoby się odpowiedzieć na te etyczne pytania, to wykrywanie na dużą skalę problematycznych treści napotka poważne przeszkody praktyczne. Wiele najbardziej niepokojących przykładów dezinformacji koncentrowało się nie na konkretnych wyborach bądź konkretnym kandydacie, ale na wykorzystywaniu podziałów społecznych na tle, powiedzmy, rasowym. A takich przekazów się nie wykupuje. Takich przypadków nie obejmą więc nowe przepisy regulujące kampanie reklamowe, jak ustawa o uczciwym reklamodawstwie Honest Ads Act, którą przyjęły zarówno Facebook, jak i Twitter.

Jeśli w samych Stanach Zjednoczonych nie ma jasnego rozwiązania kwestii dezinformacji, to sytuacja w kontekście międzynarodowym jest jeszcze trudniejsza. Tam problem ten jest jeszcze bardziej zdecentralizowany i nieprzejrzysty – i to kolejnym powód, dla którego niemożliwe jest znalezienie jednego ogólnego, wszechstronnego rozwiązania pasującego do wszystkich okoliczności.

Mimo że każdy zastosowany środek dotyczy jedynie wąskiego wycinka problemu – np. ulepszone strategie reklamowe mogą rozwiązać 5 procent problemu, zaś zmienione strategie dotyczące kierowania treści do konkretnych odbiorców mogą zaradzić kolejnym 20 procentom – ogólnie rzecz biorąc, postęp jest możliwy. Wynikiem końcowym będzie takie środowisko informacyjne, które, choć dalekie od ideału, będzie zawierało jedynie stosunkowo niewielką ilość problematycznych treści – rzecz nieunikniona w społeczeństwach demokratycznych ceniących sobie swobodę wypowiedzi.

Dobra wiadomość jest taka, że niezależni eksperci będą odtąd mieli dostęp do objętych ochroną prywatności danych z Facebooka, co pomoże im zrozumieć (i poprawić) wpływ tej platformy na wyniki wyborów – i demokracje – na całym świecie. Można mieć też nadzieję, że inne platformy cyfrowe – takie jak Google, Twitter, Reddit i Tumblr – podążą tą samą drogą. Dysponując odpowiednią wiedzą i zobowiązując się do fundamentalnej, choć stopniowej zmiany, można sprawić, że społeczny i polityczny wpływ, jaki mają na dzisiejsze demokracje platformy cyfrowe, będzie bardziej kontrolowany i bezpieczniejszy niż dzisiaj.

**
Kelly Born jest odpowiedzialna za program w ramach inicjatywy Madison Initiative w fundacji Williama i Flory Hewlettów.

Copyright: Project Syndicate, 2018. www.project-syndicate.org. Z angielskiego przełożyła Katarzyna Byłów-Antkowiak.

Facebook powie: Nie chcesz płacić, więc świadomie oddajesz swoją prywatność

__
Przeczytany do końca tekst jest bezcenny. Ale nie powstaje za darmo. Niezależność Krytyki Politycznej jest możliwa tylko dzięki stałej hojności osób takich jak Ty. Potrzebujemy Twojej energii. Wesprzyj nas teraz.

Zamknij