Świat

Kto nie mruga, ten deepfake

Jak na razie „głębokie fałszerstwa” daje się rozpoznawać i oceniamy (z fascynacją lub przerażeniem) raczej ich przyszły potencjał – bo w materiałach wideo tego rodzaju nadal widać szwy. Jednym ze skutecznych dziś sposobów sprawdzenia, czy mamy do czynienia ze zmanipulowanym wideo, jest patrzenie osobom na filmie prosto w oczy – bo deepfake nie mruga.

Wedle internetowej legendy (vide: Know Your Meme), dawno, dawno temu, bo w 2017 roku, użytkownik serwisu Reddit o pseudonimie Deepfakes opublikował szereg pornograficznych filmików wideo z ciałami o podmienionych twarzach. Te nowe należały do różnych osób publicznych, w tym Gal Gadot, odtwórczyni tytułowej roli w zeszłorocznym – i jak na Hollywood całkiem feministycznym – hicie Wonder Woman. Idąc za ciosem, autor tych pornograficznych kolaży udostępnił stworzoną przez siebie aplikację FakeApp, dzięki której mogliśmy wiosną tego roku zobaczyć (i usłyszeć) Baracka Obamę mówiącego nam prosto w oczy „Stay woke, bitches!” (w luźnym tłumaczeniu: Bądźcie świadomi rzeczywistości, łajzy!).


Od tamtego czasu technologia jest wciąż udoskonalana, np. coraz lepiej uwzględnia indywidualny styl podrabianej osoby i jest przy tym dostępna dla każdego z wystarczającym zapałem i wolnym czasem. Deepfake, który na język polski można przetłumaczyć jako „głębokie fałszerstwo”, tym zapewne się różni od fałszerstwa płytkiego, że trudniej je zdemaskować gołym okiem – głębia zatem odnosi się do poziomu zaawansowania technologii, ale też do tego, że by wykryć fałszerstwo, trzeba się przekopać przez niejedną warstwę manipulacji.

Czy boty wygrają wybory za polityków?

Deepfake to również jedna z wielu nowinek technologicznych, która – mimo innych intencji deklarowanych przez twórców – błyskawicznie znalazła zastosowanie w internetowej pornografii. Podobnie było wcześniej w przypadku POV (point-of-view, czyli filmowania z perspektywy „wzroku aktora”) czy VR (virtual reality). Dość rzec, że już dziś amerykańska firma pornograficzna Naughty America planuje wprowadzić filmy pornograficzne „szyte na miarę”, wykorzystując jedną z technologii deepfake, czyli faceswap – zamianę twarzy. Klienci, na podstawie przesłanych przez nich zdjęć osoby, która ma zostać bohaterką lub bohaterem filmu – w zamyśle, za jej zgodą – otrzymają spersonalizowane wideo. Firma twierdzi, że będzie sprawdzać tożsamość nabywców dzieł, ale mało kto wierzy, że zrobi to skutecznie.

Żołnierze POPiS-u znów byli głupi, czyli pomyśl, zanim poszerujesz

Kwestia, która natychmiast się nasuwa w kontekście manipulacji typu deepfake, dotyczy tego czy można „podmieniać” cudze wizerunki bezkarnie? Odpowiedź brzmi: to zależy, prawo nie nadąża bowiem za ludzką inwencją. Fizycznie nikomu nie dzieje się przecież krzywda, bo to nie żywe osoby zmuszane są do mówienia rzeczy, które niekonieczne przeszłyby im przez gardło albo do wykonywania czynności, na które w realnym świecie by się nie zdobyły – a tym bardziej nie zgodziłyby się na ich utrwalenie. Z drugiej strony rzecz tyczy się nie tylko fizycznego aktu, ale publicznego (lub prywatnego i w ten właśnie sposób upublicznianego) wizerunku, który ponosi uszczerbek.

W Europie prawo do prywatności rozwijane jest właśnie w odpowiedzi na zagrożenia płynące z internetu, czego przykładem jest RODO, w tym prawo do usunięcia z sieci niepochlebnych publikacji o sobie). W Polsce obowiązuje również artykuł 191a Kodeksu Karnego nakładający karę do 5 lat więzienia za utrwalanie lub rozpowszechnianie wizerunku osoby nagiej lub w trakcie czynności seksualnej bez jej zgody. W Stanach Zjednoczonych jednak, gdzie wolność wypowiedzi określa pierwsza poprawka do Konstytucji, sprawa się komplikuje. O ile bowiem deepfake nie dotyczy wykorzystania komercyjnego zdjęcia osoby publicznej lub dziecięcej pornografii, poszkodowanym pozostaje jedynie nadzieja na przekonanie sądu, że w danym przypadku był to akt zniesławienia. Do przewidzenia jest jednak, że wówczas przedmiot sprawy, a więc akt „nie-fizyczny”, w toku procesu przyniesie całkiem namacalne skutki dla życia ofiary manipulacji: zainteresowanie mediów, jak również masę nienawistnych komentarzy.

Labrador Patryka Jakiego. Jak się manipuluje za pomocą fake newsów

Inny rodzaj działalności, w którą deepfake, a zwłaszcza faceswap, doskonale się wpisuje, to revenge porn, czyli pornografia z zemsty – udostępnianie zdjęć intymnych bez zgody osoby fotografowanej. Choć akurat ta internetowa działalność miała się zupełnie nieźle jeszcze przed nastaniem ery „głębokich fałszerstw”. Sam termin przywoływać ma skojarzenia ze wzgardzonymi uczuciami, ale praktyka polega po prostu na wykorzystywaniu zachowanych prywatnych zdjęć z czasów kwitnącego związku do upokorzenia drugiej osoby, do czego przemoc seksualna doskonale się nadaje. Na gruncie statystyk, wedle których globalnie 74 procent odbiorców internetowej pornografii to mężczyźni, nie dziwi fakt, że obiektem revenge porn są zazwyczaj kobiety, choć zdarzają się wyjątki od tej reguły i np. w Australii proporcje są wyrównane.

Postprawda: odporna na fakty

czytaj także

Co istotne, do pornografizacji wizerunku niepotrzebny jest nawet pretekst zemsty, wystarczy zmanipulować zdjęcia przypadkowej osoby, jak pokazuje przykład Australijki Noelle Martin. Akurat ta historia zakończyła się zresztą względnym happy endem – dzięki uporowi ofiary kategoria image-based abuse (nadużycie w oparciu o czyjś wizerunek) została wprowadzona do tamtejszego prawa karnego.


Warto dodać, że technologią deepfake można również bawić się grzecznie, na przykład na kanale deepfakes na YouTube, gdzie technologię głębokich fałszerstw zaprzęgnięto do dość niewinnych przeróbek hollywoodzkich filmów (a także wystąpień Donalda Trumpa).

Jak na razie „głębokie fałszerstwa” daje się rozpoznawać i oceniamy (z fascynacją lub przerażeniem) raczej ich przyszły potencjał – bo w materiałach wideo tego rodzaju nadal widać szwy. Najważniejszym – zapewne chwilowym – niedomaganiem tego narzędzia, opartym na maszynowym uczeniu się na podstawie dostępnych w sieci zdjęć, jest niedostatek kadrów z zamkniętymi oczami. Stąd jednym ze skutecznych dziś sposobów sprawdzenia, czy mamy do czynienia ze zmanipulowanym wideo, jest patrzenie osobom na filmie prosto w oczy – deepfake bowiem nie mruga.

Choć technologiczna zabawa w kotka i myszkę trwa w najlepsze, na bardziej ogólnym poziomie deepfake to spełniony sen radykalnego konstruktywizmu, wedle którego wszystkie fakty są społecznie tworzone, a pewniki – umowne. Na marginesie: ideologiczne oblicze takiego podejścia w nauce niedawno pokazali we własnym, całkiem analogowym „głębokim fałszerstwie” badacze: Helen Pluckrose, James A. Lindsay i Peter Boghossian. W poważanych pismach naukowych udało im się opublikować szereg skrajnie zideologizowanych artykułów z wyssanych z palca danymi, czym obnażyli mechanizmy oceny prac nie na ich wartości merytorycznej a światopoglądowej. Gdyby nie zainteresowanie dziennikarzy, których nie chcieli wprowadzać w błąd, dalej produkowaliby (i prawdopodobnie z powodzeniem publikowaliby) tego rodzaju prace.

Sprawdzanie faktów się nie opłaca [polemika z Ludwiką Włodek]

Skoro wiemy niemal na pewno, że deepfake będą coraz doskonalsze i coraz trudniej będzie je odróżnić od prawdy, dobrze by było, aby do łask wróciły stare dobre narzędzia krytycznego myślenia. Co prawda, stawianie pytań w rodzaju: „kto ma w tym interes?” często bywa domeną zwolenników teorii spiskowych – nieraz bywalców tych samych internetowych grup dyskusyjnych co amatorzy deepfake – ale to zasadnicze pytanie może równie dobrze służyć za punkt wyjścia do analizy otaczającego nas świata. Skoro już wiemy, że zmysły nas zawodzą, tym większe pole do popisu dla zdolności intelektu – nie tylko w odkrywaniu deepfake’ów.

Cambridge Analytica, Hello Kitty i władcy świata

**
Socjolożka,  adiunkt w Katedrze Zarządzania w Społeczeństwie Sieciowym Akademii Leona Koźmińskiego,  wykładowczyni na Wydziale Mediów i Komunikacji w London School of Economics and Political Science. Autorka książek Kazimierz Kelles-Krauz: Marksizm a socjologia oraz Reshaping Poland’s Community after Communism: Ordinary Celebrations (Palgrave  2018).

Komentarze

System komentarzy niedostępny w trybie prywatnym przeglądarki.