Nauka

Sztuczna inteligencja wykryła epidemię koronawirusa szybciej niż człowiek

Big tech powinien sfinansować rozwój technologii, które pomogą nam skuteczniej walczyć z pandemią. Trudno o lepszy moment, żeby zaczęli partycypować w kosztach, skoro są jednymi z nielicznych beneficjentów całej sytuacji. W obecnej sytuacji gra pt. wolny rynek już nie obowiązuje – mówi w rozmowie z Michałem Sutowskim Aleksandra Przegalińska.

Michał Sutowski: A może to sztuczna inteligencja wymyśliła koronawirusa, zbuntowała się i tak wygląda początek jej wojny z ludzkością?

Aleksandra Przegalińska: Niewątpliwie ciekawa hipoteza, taka posthumanistyczna, aczkolwiek mało prawdopodobna. Styk biologii syntetycznej ze sztuczną inteligencją, szumnie zwany artificial life, nie jest jeszcze na tyle rozwinięty, żeby stworzenie wirusa było możliwe. Oczywiście, SI może już dziś szukać optymalnych mieszanek leków na różne przypadłości, łączy różne składniki chemiczne…

To i trucizny też chyba może.

Hipotetycznie też, choć nie z własnej woli, której nie posiada, ale na czyjąś komendę jak najbardziej mogłaby poszukiwać substancji optymalnej do przeprowadzenia zagłady np. organizmów ludzkich na różnych kontynentach. Ale dziedzina „sztucznego życia” jest dopiero w powijakach – możemy mieszać substancje chemiczne, ale nie budować złożone organizmy. Wirusy, co prawda, nie mają układu nerwowego, ale jednak namnażają się pasożytując, mają też zdolność do adaptacji. To nie ten etap.

A kiedy on nastąpi?

Może za kilkanaście lat? Na dziś – bo to odkrycie sprzed bodaj dwóch miesięcy – szczytem możliwości sztucznej inteligencji są tzw. xenoboty zbudowane z komórek macierzystych pobranych z serca i skóry afrykańskiej żaby Xenopus laevi – organizmem tego jeszcze nazwać nie można, bo ani się to nie odżywia, ani nie ma układu nerwowego czy wydalniczego, ale w pewnym sensie żyje. Na ich tle wirusy, mimo że rownież nie są organizmami, a cząstkami kwasu nukleinowego z białkowym płaszczem, są jednak dużo bardziej wyrafinowane.

Mówiłaś, że SI nie zaprojektuje leku ani trucizny „z własnej woli”. Jeszcze niedawno w debacie o sztucznej inteligencji skupiano się właśnie na problemie świadomości, tożsamości i woli; pytano, czy i kiedy SI może ją uzyskać i zacząć działać na własną rękę. I że jak już się to stanie, to nastąpi Osobliwość i będziemy mieli jako ludzkość przechlapane. Ale rozumiem, że dziś myślimy bardziej o tym, jaka firma czy jaki kraj ma nad nią kontrolę?

Można powiedzieć, że dyskurs odciął się od swej fantastyczno-naukowej proweniencji podlanej Lemem, Dickiem i Terminatorem II z buntem robotów na dokładkę. Przez ostatnie 2–3 lata SI stała się ważna dla biznesu i różnych organizacji. Pod postacią uczenia maszynowego służy już do optymalizacji różnych procesów i staje się po prostu praktycznym narzędziem. Zanim do tego doszło spekulowaliśmy tylko, jaka może być, bo nie było jej za dużo w realu.

Kiedy na Wiejskiej zasiądą awatary? [rozmowa z Aleksandrą Przegalińską]

A dziś po prostu kombinujemy, kto na niej zarobi? I będzie wpływać na politykę i całe nasze życie?

Nawet w Dolinie Krzemowej długo panowała bardzo kurzweilowska atmosfera – autor książki Nadchodzi osobliwość głosił, że w 2040 sztuczna inteligencja zyska samoświadomość i wszyscy się zastanawiali, co to znaczy. A dziś mniej ich interesuje Osobliwość, a bardziej pieniądze płynące z cięcia kosztów operacyjnych czy specjalistycznych innowacji.

Rozumiem, że także dla masowej opinii publicznej sztuczna inteligencja się po prostu skonkretyzowała: interesują nas dylematy wokół samochodów autonomicznych albo co wie o nas domowa asystentka Alexa?

I czemu klastrowy system liczenia maszynowego w Netfliksie podpowiada mi filmy, których nie chcę zobaczyć, dlaczego polecanki w Amazonie są takie, a nie inne, względnie, w jaki sposób Spotify poszerza mi spektrum znanych utworów, a YouTube zachowuje się jak inżynier Mamoń. Robimy w sieci testy wagonika i zastanawiamy się, kogo będzie ratował, a kogo przejedzie samochód autonomiczny na drodze. No i ciekawi nas problematyka geopolityczna, bo większość państw przedstawiła swoje strategie dotyczące sztucznej inteligencji. Również UE powołała grupę ds. etyki sztucznej inteligencji, która przedstawiła swoje rekomendacje.

I ona nie dotyczy tego, co się należy maszynom w świecie osobliwości albo czy świadomość ludzka w cyfrowej chmurze ma prawa człowieka?

Zdecydowanie nie, bo wreszcie zaczęliśmy rozmawiać na poziomie dokumentów politycznych oraz kodeksów praktyk i implementacji SI do strategii biznesowych. Dyskusja zbliżyła się, krótko mówiąc, do Ziemi.

Dziś na Ziemi najważniejszy wydaje się temat pandemii, przykryje na jakiś czas wszystkie inne. Opowiedzmy zatem, jak się mają możliwości SI do naszych zdolności zwalczania pandemii. W jednej z telewizji śniadaniowych opowiadałaś – oczywiście przez Skype – że sztuczna inteligencja wykryła zalążki epidemii wirusa w prowincji Hubei na półtora miesiąca przed tym, jak Chiny poinformowały o tym WHO. Na czym to wykrycie polegało i czemu nic z tego nie wynikło? Skoro była wiedza o epidemii, a świat się i tak dowiedział dopiero, jak rząd chiński zdecydował się o tym powiedzieć?

To kwestia mostu między zdolnością SI do robienia pewnych rzeczy i chęcią człowieka, by dosłyszeć i zinterpretować, co przeczytał. Dzisiejsza SI – mimo że mamy w domach Alexy czy asystentów w smartfonach, co z nami całkiem dorzecznie gadają – nie ma interfejsu, który mówi jakiemuś badaczowi: hej, mamy problem i zapala mu czerwone lampki. Urządzenie pokazuje pewne korelacje, interesujące wzorce, których nie widać na pierwszy rzut oka w zbiorach danych. Potrafi wyłapywać tzw. słabe sygnały nadchodzących być może zdarzeń, które sami moglibyśmy zlekceważyć.

Koronakryzys: Brak planu to czekanie na cud, który się nie wydarzy

Ale skąd biorą się te dane?

Na przykład z tego, co ludzie głoszą w mediach społecznościowych oraz rożnych forach, do których jest dostep. Ta konkretna SI, o której mówiłam, czyli kanadyjska BlueDot, ma silnik do przetwarzania języka, przeczesuje sieć i zbiera rozmaite informacje. Algorytm BlueDot przeszukiwał na przykład wiadomości bieżące z obcojęzycznych serwisów newsowych, dane z biletów lotniczych, informacje rozmaitych serwisów poświęconych chorobom zwierząt i roślin oraz oficjalne obwieszczenia rządowe.

Źródłem COVID-19 jest przemoc wobec zwierząt

czytaj także

Źródłem COVID-19 jest przemoc wobec zwierząt

Peter Singer, Paola Cavalieri

I to wystarczy?

Podejrzewam, że zbierał też dane z takich serwisów jak Twitter, chociaż twórca algorytmu – Kamran Khan – twierdzi, że dane tego typu są dla nich zbyt nieustrukturyzowane. Ludzie często opowiadają na otwartych forach, również anonimowo, o symptomach swojej choroby. Poza tym BlueDot miała jeszcze kilka innych źródeł: potrafiła stwierdzić, gdzie to się dzieje, jaka jest gęstość zaludnienia na obszarze, z którego płyną sygnały. Było to również spinane z bazami danych dotyczących mobilności transportowej, ale też oficjalnymi statystykami, w których szpital informował, że zgłosili się nowi chorzy…

I po prostu składa to wszystko do kupy?

Koreluje dane z różnych silosów. No i gdzieś w połowie listopada wyszło na to, że ludzie w okolicach chińskiego miasta Wuhan chorują na coś podobnego do zapalenia płuc, i że to zjawisko narasta w tempie nietypowym.

A skąd kanadyjska firma ma dostęp do jakichś silosów chińskich danych? Przecież tam nie ma Facebooka…

Ale jest komunikator WeChat, który jest zarówno stroną newsową, jak i medium społecznościowym oraz platformą zakupową i reklamową. Ludzie piszą na nim jak najęci i podejrzewam, że łatwo się w niego wpiąć, zwłaszcza jeśli mamy system operujący w kilkudziesięciu językach.

Ale jak to „wpiąć”? Można się tak łatwo dostać do chińskiej apki? Ktoś Kanadyjczykom te dane udostępnił? Chińczycy też handlują danymi?

Intuicja podpowiada mi, że były to raczej publiczne wypowiedzi ludzi skarżących się na dolegliwości skorelowane z innymi informacjami, np. że gdzieś ludzie przestali przychodzić do pracy, a gdzie indziej jest mniejszy ruch w transporcie zbiorowym. Takie informacje mogły się pojawiać na forach czy blogach. Nikt jednak nie zwrócił uwagi na taki słaby sygnał, on zaginął gdzieś pośród wielu trendów, które ten system może wyłapywać.

Czyli ta maszyna ciągle gdzieś stoi, wyłapuje różne zagrożenia, ale i tak nikt jej nie słucha?

BlueDot nie przeczesuje całego internetu i nie wysyła słabych sygnałów na temat recesji w Albanii czy ruchów ISIS przy granicy tureckiej, tylko jest nastawiony na badanie wystąpienia symptomów chorób. Powstawał we współpracy epidemiologów i badaczy danych, a pracował już wcześniej przy okazji pandemii wirusa Zika. Do tego była przystosowana jego architektura. A właścicielem jest, dodajmy, kanadyjska firma prywatna, BlueDot Toronto. Mają kilka linii produkcyjnych…

Jak rozwój sztucznej inteligencji zmieni świat w latach dwudziestych

Czyli co, można sobie na rynku kupić taki system wczesnego ostrzegania? Tylko żeby stał przy nim ktoś, kto rozumie, co on mówi?

Na pewno różne systemy modeli predykcyjnych mogą skutecznie badać zjawiska, które mają wykładnicze wzrosty, jak np. pandemia. W przypadku BlueDot klientem, którym sie chwalą, był np. kanadyjski rząd. Przy okazji któregoś wybuchu eboli w Afryce stwierdzono, że taki system może po śladach cyfrowych przewidzieć, gdzie wystąpi zagrożenie kolejnym wybuchem zachorowań, żeby to miejsce wcześniej odizolować. I w ten sposób rzeczywiście skutecznie ograniczano zasięg epidemii, która dopiero się rozpoczynała.

Czyli to jest wiedza prywatna, którą można sobie za pieniądze wynająć?

Takich systemów jest kilka, a część ma bardziej otwarty charakter. Johns Hopkins University udostępnia bezpłatnie wiedzę na temat tego, co się dzieje aktualnie, ale ma też system predykcyjny, który bada, co może za chwilę się stać i kreśli potencjalne scenariusze. Mając dane na temat np. Polski możesz sam zrobić relatywnie prosty algorytmicznie system, który ci powie, które miasto będzie za chwilę najbardziej zagrożone. To nie jest wielka filozofia, tylko wymaga sporej ilości adekwatnych danych, które potrafią kontekstowo ocenić sytuację i wskazać najbardziej realistyczny scenariusz rozprzestrzeniania się epidemii.

Czyli tak: mamy firmę prywatną, która wykrywa zagrożenia o potencjale globalnym i widzi jego zwiastuny w listopadzie. A rząd chiński informuje na ten temat WHO tuż przed Nowym Rokiem. To gdzie ta wiedza się zagubiła przez kilka tygodni? Co nam po czyimś świetnym algorytmie, skoro i tak czekamy na oświadczenie władz w Pekinie?

Firma mogła informować rząd Kanady czy USA, albo jakieś jednostki szpitalne. Ale istniejące systemy ostrzegania są faktycznie wyspowe – akurat ta firma blisko współpracuje z rządem kanadyjskim, który kontraktuje ich do wykonania zadań. Ale co może zrobić rząd Kanady z informacją o wirusie, kiedy Chińczycy mówią, że nic się nie dzieje? A może sami o tym wiedzą, bo mają przecież najlepsze – i to w państwowych spółkach – systemy SI na świecie, dostępne na telefon z komitetu partyjnego?

To wynika z faktu, że państwo chińskie jest autorytarne?

Mamy tu przedziwną sytuację zderzenia twardej wiedzy opartej na danych, która mogłaby bardzo pomóc na skalę globalną i państwa, które mówi: nie, nie ma takich sygnałów, one są mało istotne. Nie chodzi tylko o państwo chińskie, które ukrywało informacje, ale też np. premier Boris Johnson jeszcze w marcu 2020 roku mówił, że to tylko odmiana grypy, która musi upowszechnić w społeczeństwie, by to zyskało odporność populacyjną. Masz wiedzę o epidemii, o zagrożeniu, o śmiertelności, ale odbijesz się o dyskursu politycznego, kiedy decydenci powiedzą ci: so what?

Na koronawirusa Chiny polecają autorytaryzm

A jednak niektóre kraje przejęły się tą wiedzą.

Tak, przede wszystkim Tajwan ze swoim doświadczeniem SARS, który od razu postawił własny system big data, gdzie łączono karty pokładowe ludzi podróżujących z ogólnymi danymi medycznymi, tzn. gdzie przebywali, na ile są zdrowi oraz jak bardzo są narażeni na kontakt z dużą liczbą osób narażonych. Do tego ludzie sami mogli raportować o pewnych symptomach i w efekcie osoba z dużą ekspozycją na podróże zagraniczne i zarazem słabsza fizycznie była wyłapywana przez kamerę termowizyjną, identyfikowano ją już na lotnisku, mierzono jej temperaturę. Na telefonie wyświetlały się jej instrukcje, gdzie ma się skierować.

Rozumiem, że w tym wypadku sztuczna inteligencja pozwala łączyć różne zbiory danych tak, by wskazywać nie konkretne grupy ryzyka, na zasadzie – a może starsi, a może cukrzycy – tylko konkretne osoby? Nie stygmatyzujesz w ten sposób całej społeczności lub kategorii socjodemograficznej, na zasadzie: seniorzy to problem, tylko określasz ludzi naprawdę zagrożonych?

Tak, choć nie idealizowałabym tego rozwiązania, bo ostateczną formą stygmatyzacji jest przecież to, że ktoś wskazuje na ciebie jako problem. Poza tym wiele zależy od tego, jak dany model jest skonstruowany, bo parametrem kwalifikującym o wielkiej wadze może być np. twój wiek. Jeśli dane wskazują, że śmiertelność chorujących powyżej 85. roku życia jest zawsze wysoka, to system i tak zakwalifikuje wszystkich w tym wieku jako grupę ryzyka. To samo widzimy np. przy systemach do oceny ryzyka kredytowego, które badają, ile masz lat, z jakiej jesteś dzielnicy i czy masz żonę – i na podstawie tych danych kwalifikują cię do jakichś większych kategorii.

Czy odpowiedzią na koronawirusa ma być akcja „zabierz babci klucze”?

Mimo tych zastrzeżeń wiemy zatem, że sztuczna inteligencja pozwala na przewidywanie rozwoju geograficznego epidemii i wskazywanie konkretnych jednostek z podwyższonym ryzykiem chorowania…

Oraz „superroznosicieli”, bo przecież w Korei to system wynalazł kobietę, która zaraziła tysiąc osób w tłumie na zgromadzeniu religijnym. Bez niego to byłoby szukanie igły w stogu siana, a tak – po jej symptomach i trasie przemieszczania się – udało się na nią trafić. Można też odtworzyć ścieżki roznoszenia epidemii, jakimi środkami transportu i z której do której dzielnicy ona się rozprzestrzeniała.

Brzmi trochę groźnie.

Tak, zdecydowanie możemy się tego bać i musimy nieustannie kontrolować społecznie dostęp władzy do naszych danych. Również po tej pandemii, czy po jej pierwszym wygaśnięciu.

Sztuczna inteligencja lepiej wykryje zmiany w ciele, ale diagnozę musi postawić człowiek

A co np. z doborem leków do terapii chorych? A może SI pomogłaby nam wręcz wyprodukować szczepionkę?

Na pewno może bardzo pomóc przy kombinowaniu różnych mieszanek. Robi się np. symulacje interakcji różnych związków chemicznych. SI nie wymyśli czegoś zupełnie nowego, ale skraca czas inkubowania leku, eliminując np. mieszanki czy kombinacje, które na pewno nie będą skuteczne lub wręcz zagrożą pacjentowi. Tak było z dobieraniem terapii przy pandemii eboli: okazało się, że niektóre leki na dengę czy malarię działają dobrze w korelacji z innymi. I teraz też można stwierdzić, co złagodziłoby przebieg choroby czy ograniczyło powikłania w rodzaju zwłóknienia płuc. Jest wreszcie diagnostyka – Nvidia i Alibaba stworzyły projekty SI, gdzie porównywano typ zapalenia płuc spowodowany wirusem SARS-CoV-2 i inne typy, a system miał ponad 99 procent precyzji wskazań.

To mogłoby zastąpić testy?

Niestety nie, bo one działają w oparciu o zdjęcia rentgenowskie przy zaawansowanej chorobie płuc – można wtedy zweryfikować koronawirusa jako przyczynę w sposób szybki i bardzo efektywny. To się już stosuje, ale wobec grupy pacjentów w złym stanie – nie jest to zatem prewencja ani łagodzenie skutków, tylko testowanie naprawdę ciężko chorych.

Mamy zatem kilka poważnych zastosowań SI, które mogłyby służyć przewidywaniu, zwalczaniu i łagodzeniu skutków epidemii – kluczowy problem dotyczy jednak, jak rozumiem, interpretowania i stosowania praktycznego dostępnej wiedzy. Druga rzecz, to kwestia finansowania rozwoju i kontroli potrzebnych technologii – i tu przechodzimy do kwestii ogólniejszej.

Kto nad tym wszystkim panuje.

No właśnie. W wywiadzie-rzece, Sztuczna inteligencja. Nieludzka, arcyludzka opowiadasz o ewolucji projektów sztucznej inteligencji od czasów Alana Turinga po komputer kwantowy. I z twojej opowieści wynika, że do dyspozycji mamy technologie sponsorowane przez armię, a więc rozwijane pod kątem potrzeb wojennych albo – od końca lat 60. wraz z kulturą Doliny Krzemowej i nowymi formami konsumpcjonizmu – biznes nastawiony na rozpoznawanie i kreowanie potrzeb klientów indywidualnych.

To się ładnie nazywa: że poszerza się spektrum potrzeb możliwych do realizacji.

Wynalazki nie spadają z nieba. To państwo decyduje, co wynajdziemy

Mówisz w swej książce z sympatią o inicjatywach naukowców, którzy nie godzą się pracować nad autonomiczną bronią – taki ruch firmował zresztą sam Elon Musk, twórca Tesli. Ale czy fakt, że dziś w awangardzie rozwoju sztucznej inteligencji są firmy prywatne nastawione na wielki zysk, też nie stanowi problemu? I tu musi paść pytanie: a gdzie w tym wszystkim, obok generała i konsumenta, są obywatel i jego potrzeby?

Widzę wielki problem, zwłaszcza biorąc pod uwagę, jak wygląda tworzenie strategii przez rządy państw w tym obszarze. 19 lutego Komisja Europejska opracowała na przykład białą księgę pt. Sztuczna inteligencja – podejście europejskie. To ważny sygnał, że swoje podejście czy misję ma UE jako całość, a nie tylko poszczególne firmy. I że będzie budować partnerstwa publiczno-prywatne i ośrodki badawcze tak, aby działały w oparciu o wspólne wartości, które nam przyświecają.

I co to za wartości?

No więc właśnie. W tej białej księdze czytamy, że firmy mają tworzyć open data pools czy nawet lakes, a więc duże zbiorniki z danymi wytwarzane przez dane przedsiębiorstwo, ale dostępne dla firm małych i średnich, które nie potrafią same takich wielkich zbiorów danych zgromadzić, ale mogłyby z nich korzystać. Tak samo obywatele czy organizacje pozarządowe.

Brzmi demokratycznie.

Okazało się jednak, że firmy europejskie już w czasie konsultacji wyraziły wątpliwości, że w sumie dlaczego miałyby udostępniać te dane?

Bo skoro Amerykanie i Chińczycy nie udostępniają, to czemu my mamy być frajerami?

I stanęło na tym, że te open data pools będą standardem, ale z zastrzeżeniem, że tylko wtedy i tylko dla tych danych, które nie będą przynosić nieuprawnionych korzyści dla konkurencji. Co niemal unieważnia cały pomysł.

Jeśli dobrze rozumiem, w ostatnich latach zmieniły się kryteria tego, co jest cenne? Bo przez wiele lat myślano chyba głównie o mocach obliczeniowych komputerów. A teraz się okazuje, że moce obliczeniowe to hardware, wcale nie tak trudny do opanowania, za to wyzwaniem jest surowiec, czyli właśnie dostęp do danych?

Dziś faktycznie powtarza się, że data is new oil, data is the king itd. Cały świat bije się o dane, awantury toczą się o to, że sektor prywatny nie chce się nimi dzielić, żeby ich konkurencja nie zżarła, i że demokratyzacja czy spłaszczenie dostępu do AI nie następuje. Ale ja mam jednak przekonanie, że to, co się dzieje wokół komputera kwantowego, o którym też mówimy w książce, wskazuje, że jeszcze nastąpi wielki powrót hardware’u.

Mazzucato: Precz z cyfrowym feudalizmem!

czytaj także

Znów – produkowanego przez wielkie firmy?

Jeśli komputer kwantowy okaże się sukcesem, pewnie znajdą się naśladowcy; są szczytne inicjatywy, by budować komputer europejski. Ale jak na razie pretensje do kwantowej supremacji ogłaszają Microsoft, IBM i Google. I pewnie też wojsko amerykańskie ma coś w zanadrzu, bo kupiło coś po cichu w D-Wave…

Na razie jednak kluczowym zasobem są dane. Czy Europa jest w ogóle w stanie gromadzić wielkie zbiory danych?

Amerykańskie firmy mają ich ogromne zestawy, bo to wielki kraj, ma dużo użytkowników i ruch w sieci też ogromny. W Europie masz za to dużo różnych państw z firmami, które obsługują różne grupy klientów biznesowych czy indywidualnych, z których każda ma ograniczone zasoby. Ich uwspólnienie wciąż nie jest dobrze wymyślone i tym bardziej trudne – szczególnie jaskrawy wydaje się tutaj problem obywateli – że chcielibyśmy mieć kilka rzeczy naraz.

Czyli?

Dobrą SI zbudowaną na wielkich zbiorach danych z różnych silosów, a jednocześnie wartościach demokratycznych, aby mali gracze mogli z nich korzystać i by dzielono się wiedzą. I jednocześnie pozwalającą na ochronę prywatności i anonimizację danych.

Ludzie dyskryminują, więc algorytmy też

Europejczycy są dość wymagający, jeśli chodzi o praworządność. Czy w takim razie naturalnej przewagi nie mają Chińczycy, skoro jest ich bardzo dużo, a poza tym ich państwo ma suwerenną zdolność do gromadzenia i łączenia danych? My w Europie tego chyba szczególnie nie chcemy.

Tak i nie. Bo jak masz bardzo dużo danych w zestawach np. do uczenia maszynowego, to jest pewien pułap, kiedy więcej już nie jest potrzebne. Chińczycy wykreowali u siebie świat, w którym wszystko jest danymi, bo wszystko jest rejestrowane, ale wiele to spurious correlation, czyli dane współwystępujące, z których nic nie wynika. To jest dalej big data, ale już nie thick data, która powie wiele o procesach i zależnościach. To dane gromadzone, bo skoro chińskiemu państwu wolno, to będzie je zbierać zewsząd.

A na pandemię to jakoś pomaga?

Faktycznie, łatwo znaleźć człowieka, który potencjalnie może być chory, włącznie z jego lokalizacją, bo kamery identyfikują jego twarz i mimikę, a do tego system wysyła mu stosowny kolorek na smartfona, decydujący o prawie do poruszania się lub nie. W tym sensie ten Wielki Brat jest przydatny. Ale co do zasady, żeby optymalizować różne procesy, potrzebujesz dużego wolumenu danych spełniających zasadę 4V.

Big Brother spotyka Big Data. Oto najbardziej totalna technologia władzy w historii ludzkości

Czyli?

Volume, variety, velocity, veracity, a więc ilość, różnorodność, szybkość napływu i wiarygodność. To jednak nie znaczy: nieskończoność, bo nie każde dane dodane do silosu są przydatne. Nie jest też tak, że każdy podmiot, by realizować skutecznie swoje zadania, musi mieć dane wszystkich innych podmiotów. Chińczykom udało się jakoś w przypadku epidemii, bo wyłapuje się konkretnych ludzi. Ale już w przypadku pilotażowych systemów zaufania społecznego, które wyliczają ranking na podstawie tego, jak się kto zachował, czy przeszedł na czerwonym, czy psa kopnął, czy pisze źle o lokalnym sekretarzu partii, jak się uczy i czy nie spóźnia do pracy – to im jednak nie idzie.

Jak to nie idzie?! W serialu Black Mirror działało rewelacyjnie, a to jest podobno jeden do jednego…

Owszem, dochodzą do nas historie, że ludziom faktycznie zabrania się podróży samolotem czy wstępu do parku, ale celem było przecież, żeby ludzie mieli dużo punktów. Żeby byli grzeczni, a nie żeby wszystkich zamknąć w domu za krnąbrność. Punktów nie przybywa, państwo chińskie jest niezadowolone, bo mieli te 700 na wejściu i mają 700 na wyjściu…

Zawsze można zmienić bodźce.

Można dołożyć kije i marchewki, tylko może się to skończyć jak z ich polityką jednego dziecka, czyli zapaścią demograficzną i nierównowagą płci. Krótko mówiąc, niezamierzonymi konsekwencjami. A z drugiej strony, jak człowiek ma te 705 punktów i mu w życiu jakoś idzie, to nie będzie się wysilał, żeby mieć ich 800 i dostać na coś 15 dolarów zniżki.

Ale już to, że się ktoś nie wysila, władza ma zarejestrowane.

Tylko dalej nie wie, dlaczego ludzie coś robią. System Zaufania Społecznego nie dał tego, o co naprawdę chodzi w sztucznej inteligencji, czyli dodatkowej wiedzy, zdolności przewidywania scenariuszy przyszłości, rozumienia motywacji. Natomiast w wykrywaniu konkretnych działań jednostek bez dwóch zdań Wielki Brat jest bardzo skuteczny i chińskiej władzy przydatny.

Wątkiem, o którym dużo mówicie w książce i ważnym z punktu widzenia zwalczania epidemii są sensory rejestrujące stan fizyczny organizmu. To świetnie, że można się diagnozować na odległość, ale to zarazem bardzo głęboka ingerencja w organizm. I chyba wielkie pole do nadużyć? Od politycznych, skoro państwo może wiedzieć czy się stresuję, jak oglądam wiadomości, po socjalne, gdy firmy ubezpieczeniowe mogą sprawdzać, czy aby przestrzegam warunków polisy.

Faktycznie, pisząc poprzednią książkę, natknęłam się na przypadek aplikacji Fitbit służącej do mierzenia aktywności fizycznej. Okazało się, że oni udostępniali rządowi część wiedzy o użytkownikach, w tym fizjologiczne dane związane z aktywnością seksualną. Niby miały być anonimizowane, ale jak ktoś chce, to często może dotrzeć po nitce do kłębka…

W wyobrażonym świecie przyszłości, opisanym na początku twej książki, nosisz opaskę, która monitoruje fazy twego snu, sprawdza jaki masz nastrój i pozwala ci się obudzić w optymalnym momencie. Ale już w realu, kiedy na konferencji spotkałaś faceta wszczepiającego sobie chipy pod skórę, to byłaś zbulwersowana. To gdzie jest właściwie granica tego, na co powinniśmy sobie pozwolić?

Granica jest tam, gdzie nasza kontrola. Jak jesteś właścicielem takich urządzeń, to chcesz wierzyć, że są bezpieczne, że twoimi danymi nikt nie handluje, a reguły postępowania są przestrzegane przez dostawcę technologii. Wtedy widzisz korzyści. Że Alexa robi ci kawę – ja bym to bardzo doceniła przy tym chaosie pracy zdalnej, kiedy dzieci są w mieszkaniu, a automatyzacja przestrzeni domu pozwala ci zająć się czymś innym. Oczywiście jeśli akurat nie masz ochoty samemu sobie tej kawy zrobić.

Big data szansą dla demokracji?

Ale to jest aż tak cenne? Żebyśmy nie musieli sobie sznurówek wiązać?

Uwolnienie od nielubianych, rutynowych czynności ma wielkie plusy. Ale gdy widzę ludzi cierpiących na różne schorzenia używających trackera mierzącego ciśnienie czy inne parametry fizjologiczne, to wiem, że jest nie tylko wygodne, ale też zwiększa ich bezpieczeństwo. Bo np. ktoś, kto ma epilepsję i dostaje predykcję, że za 5 minut może mieć atak i tej sytuacji przeciwdziałać lub się na nią przygotować. Natomiast w pełni się zgadzam, że diabeł tkwi w bardzo ważnych szczegółach, czyli w tym, kto naprawdę wie, co się dzieje w moim domu, co oglądam czy jak się zachowuje moje ciało.

Ale o tym, kto to wszystko wie, decyduje nie konsument, ale regulator, czyli państwo. Opowiadasz w jednym z rozdziałów Sztucznej inteligencji… o przesłuchaniu Marka Zuckerberga, które było wielkim wydarzeniem, bo on pierwszy raz musiał się komukolwiek tłumaczyć. A jednocześnie większość senatorów wyraźnie nie łapała, o co w tym wszystkim chodzi.

Przesłuchanie było faktycznie załamujące, ośmieszyło amerykańską politykę. Zresztą na łamach magazynu „Wired” ukazał się już wówczas tekst o tym, czy aby prezydentem USA nie powinien być Elon Musk, bo jego moc i sprawstwo nad rzeczywistością są znacznie większe niż oficjalnych władz, które często żyją w jakiejś bańce, nie wiedzą, jak ich państwo działa, nie mówiąc już o życiu społecznym. Polityka zareagowała na rozwój technologii z bardzo opóźnionym zapłonem, dopiero teraz próbuje coś nadrabiać. Zarazem mikrotargetingu w mediach społecznościowych używano już w amerykańskich wyborach 2012 i 2014 roku, więc politycy wiedzieli, jaki to ma potencjał, ale jeśli chodzi o regulacje, to specjalnie im się nie spieszyło.

Mark Zuckerberg stracił kontrolę nad Facebookiem

W Europie jest lepiej czy gorzej?

W Europie mamy RODO, które przyznaje jakieś prawa obywatelom, np. prawo do bycia zapomnianym, czyli do wykasowania czyichś danych przez posiadające je firmy. Ale dysproporcja między big tech a polityką jest wciąż ogromna. I to jest groźne nawet, jeśli dana korporacja niekoniecznie działa na czyjąś szkodę celowo.

Niecelowo sprzedano dane o wyborach Cambridge Analytica?

Najgorsze jest właśnie, że mogło się to stać bez świadomego nadużycia. Ktoś się podłącza pod nasze apki, deweloper ściąga dane, kasa płynie, kto by się tym przejmował. Jak coś jest tak ogromne i potężne, to popada w inercję, nikt tym w pełni nie zarządza. Ja nie wiem, czy Zuckerberg ogarnia, w jaką stronę ma zmierzać jego firma, czy przeprowadza foresight i tworzy jakieś scenariusze poza sytuacją spotkań z Radą Nadzorczą i tłumaczeniem, ile w tym roku zarobili.

Cambridge Analytica, Hello Kitty i władcy świata

Mówiliśmy o Unii Europejskiej, ale doraźnie politykę w sytuacjach kryzysu – takich jak pandemia – wciąż prowadzą państwa narodowe. Czy polskie państwo w ogóle byłoby w stanie gromadzić i przetwarzać dane potrzebne np. do zwalczania epidemii? Abstrahując od tego, czy chciałbym, żeby minister Mariusz Kamiński ze Zbigniewem Ziobrą takie dane posiedli?

Paradoks Polski polega na tym, że mamy świetnych badaczy danych i generalnie duże kompetencje ludzi do prowadzenia projektów SI, ale rozsianych po firmach prywatnych i sprzedających swe usługi globalnie. Natomiast o zbiorowy wysiłek jest najtrudniej. W USA masz silne ośrodki prywatne lub uczelnie, które tworzą platformy do zbierania informacji, które natychmiast można zaprząc do badań związanych z epidemią.

Na kogo głosuje sztuczna inteligencja?

A u nas?

W Polsce kojarzę tylko jedną inicjatywę tego rodzaju, to był Hackaton najlepszych rozwiązań pod COVID-19 zorganizowany przez GovTech Justyny Orłowskiej. Ciekawe doświadczenie dla ludzi, którzy chcą się pobawić danymi, ale chyba bez praktycznego przełożenia na politykę władz. Od miesiąca toczy nas ta cała sytuacja i uważam, że taka platforma już dawno powinna być postawiona. Jako otwarte miejsce, gdzie byśmy mogli robić badania, ale też crowdsourcować wiedzę, dzielić się pomysłami. Są przecież dostępne dane na temat epidemii, które mają charakter obiektywny, zanonimizowane. Ale takiego miejsca nie ma, ludzie pracują chałupniczo i w efekcie po sieci krążą głównie jakieś dziwne statystyki na infografice robione w Keynote.

Żeby ton naszej rozmowy nie był zupełnie malkontencki, powiedzmy zatem, co robić?

To proste – big tech powinien sfinansować rozwój technologii, które pomogą nam skuteczniej walczyć z pandemią. Trudno o lepszy moment, żeby zaczęli partycypować w kosztach, skoro teraz są jednymi z nielicznych beneficjentów całej sytuacji. Mają ogromny ruch w sieci, ludzie siedzą przed ekranami bez przerwy, konsumują treści darmowe i za pieniądze, uczą się zdalnie, dokształcają, a wszystkie platformy do dzielenia się wiedzą i do współpracy online, Slacki, Teamsy i tym podobne – są oblegane.

I tak same z siebie zaczną płacić podatki i jeszcze dzielić się technologią?

Nie wiem, jak to zrobić, ale widzę, że gra pt. wolny rynek w obecnej sytuacji już nie obowiązuje. Musi powstać jakiś być New Deal w celu podniesienia zapadających się gospodarek z ich bieżącego stanu tak, aby duzi gracze technologiczni i firmy z wielkimi zasobami dołożyły należną część. Jak czytam o kolesiu z firmy Salesforce, który nie płaci podatków od kilkunastu lat, że ufundował dwie szkoły w Kalifornii i jest z siebie zadowolony, to mi się scyzoryk w kieszeni otwiera.

Słusznie, ale do czego oni się mają dołożyć?

Skoro w temacie zmiany klimatycznej i UE, i USA pracują nad „zielonym nowym ładem”, to niech się zabiorą też za cyfrowy. Sytuacja globalnej pandemii, która wywołuje dramatyczne efekty i zdrowotne, i społeczne, doskonale się do tego nadaje. Ktoś musi na to wyłożyć pieniądze. I właśnie ci, którzy są beneficjentami obecnej sytuacji muszą zostać do tego zaprzęgnięci, choć by ktoś miał pomyśleć, że to socjalizm czy inny cyfrowy maoizm.

***

Prof. ALK Aleksandra Przegalińska – Akademia Leona Koźmińskiego, 2020-2021 Senior Research Fellow Harvard Labour and Worklife program.

__
Przeczytany do końca tekst jest bezcenny. Ale nie powstaje za darmo. Niezależność Krytyki Politycznej jest możliwa tylko dzięki stałej hojności osób takich jak Ty. Potrzebujemy Twojej energii. Wesprzyj nas teraz.

Michał Sutowski
Michał Sutowski
Publicysta Krytyki Politycznej
Politolog, absolwent Kolegium MISH UW, tłumacz, publicysta. Członek zespołu Krytyki Politycznej oraz Instytutu Krytyki Politycznej. Współautor wywiadów-rzek z Agatą Bielik-Robson, Ludwiką Wujec i Agnieszką Graff. Pisze o ekonomii politycznej, nadchodzącej apokalipsie UE i nie tylko. Robi rozmowy. Długie.
Zamknij