Globalna awaria internetu wpłynęła na działanie najważniejszych portali i serwisów na świecie. Wszystko za sprawą pojedynczej usterki.
Zaplątani w globalną sieć
Niepostrzeżenie wszyscy staliśmy się zależni od funkcjonowania internetu. I nie chodzi wcale o przymus sięgnięcia po telefon i sprawdzenia, kto dał nam lajka, wysłał wiadomość na WhatsAppie, co włożyła któraś z Kardashianek albo co słychać w świecie wielkiego biznesu. Chodzi o rzeczy bardziej podstawowe.
Transakcje finansowe – bez których zwyczajnie nie moglibyśmy kupić niczego do jedzenia. Urządzenia sterujące sieciami energetycznym i wodociągami, bez których nie mielibyśmy wody i ciepła. Inteligentne budynki, urządzenia medyczne, pojazdy; prognozy pogody, kursy edukacyjne online, roboty przemysłowe. Wreszcie, chmura obliczeniowa – w której tworzymy dzisiaj dokumenty, umawiamy spotkania, podejmujemy decyzje, komunikujemy się z ludźmi. To dzięki niej ludzie w ogóle mogli pracować z domu w czasie pandemii.
To wszystko „rozmawia” ze sobą za pośrednictwem internetu – a my nawet tego nie widzimy.
Pytanie, czy cały ten internet można po prostu wyłączyć, pada więc coraz częściej i zupełnie poważnie. W niektórych branżach (np. bankowość) zadawanie go jest wręcz wymagane przez regulacje i nazywa się tworzeniem planów ciągłości biznesu (BCP).
Czym jest i jak działa internet
Pytanie wydaje się banalne, ale wbrew pozorom takie nie jest. Zacznijmy może od zarania – prekursor internetu, sieć ARPANET, była owocem grantu zbrojeniowego i jedną z zasadniczych jej funkcji miała być odporność na atak jądrowy, który wyeliminowałby znaczącą liczbę węzłów. Ten protointernet miał być wyposażony w mechanizmy dynamicznego dostosowywania konfiguracji sieci, na wypadek gdyby „padły” w niej pojedyncze komputery albo łącza telekomunikacyjne.
czytaj także
Na podstawie takiego założenia powstały m.in. protokoły transmisji (rodzina TCP/IP), standardy routingu (kierowania danych w sieciach) i protokół DNS (rozwiązywania adresów nazwowych, takich jak KrytykaPolityczna.pl, na numery IP, w oparciu o które działa sieć) i wiele innych.
Na fundamencie tych wszystkich elementarnych technologii wyrosły kolejne. E-maile, komunikatory internetowe, technologie audio- i wideokonferencyjne, streaming muzyki i obrazu, a także bodaj najważniejsze: protokoły HTTP i HTTPS, na których działa cała sieć www, oraz zestaw standardów W3C służących do tworzenia stron i serwisów, z których 4,7 miliarda ludzi na Ziemi korzysta na co dzień.
Fundamentem internetu jest więc całe oprogramowanie, na którym sieć działa. Znacząca jego część ma charakter open source – to znaczy tworzona jest przez użytkowników internetu i udostępniana innym na licencji, której duch jest bardzo prosty: możesz wziąć, co chcesz, i przerobić tak, jak chcesz, ale to, co zrobisz, musi być na tych samych zasadach dostępne dla innych.
Z punktu widzenia człowieka kluczowym komponentem internetu są jednak treści w nim publikowane, a zasadniczym elementem ich wiarygodności – zaufanie odbiorców. Można więc „zepsuć internet” w sposób nieco metaforyczny – sprawiając, że wiadomości wiarygodne będą tak przemieszane z niewiarygodnymi, że ludzie przestaną wierzyć w to, co widzą i czytają. I takie „zepsucie internetu” to nie tylko epidemia fake newsów (jeszcze wciąż niezwalczona), ale nabrzmiewający problem tzw. deep fake’ów – czyli nagrań audio i wideo, które pokazują ludzi i zdarzenia, które nigdy nie miały miejsca. Co z tego, że dostarczymy użytkownikom informacje, skoro nikt nie będzie w nie wierzył?
Infrastruktura wytrzyma nawet burzę słoneczną
Najmniej prawdopodobne wydaje się zaburzenie samej transmisji telekomunikacyjnej. W 2021 roku nasza planeta opleciona jest siecią wysokoprzepustowych kabli światłowodowych, które przez kontynenty, zatoki, morza i oceany łączą dzisiaj kraje i operatorów. Nad całym globem zaś krążą satelity – a wkrótce będzie ich zdecydowanie więcej, bo Elon Musk wysyła w kosmos konstelację kilkunastu tysięcy satelitów Starlink, które mają dostarczyć internet do każdego miejsca na świecie.
O ile (od biedy) można sobie wyobrazić odcięcie pojedynczych łącz albo nawet wielką burzę słoneczną, która unieczynni znaczną część satelitów, o tyle trudno sobie wyobrazić, aby nagle wszystko przestało działać. Ten scenariusz należy więc uznać za bardzo, bardzo mało prawdopodobny.
O wiele bardziej prawdopodobne są scenariusze dotyczące pojedynczego kraju. Regularnie praktykują je rządy autorytarne, które chcą pozbawić możliwości komunikacji i koordynacji grupy opozycjonistów. Takie okresowe wyłączenia miały miejsce w Birmie, Zimbabwe, Hongkongu, Egipcie, Syrii, Iranie i Białorusi. Odłączenie całej krajowej sieci to scenariusz nie tylko analizowany, ale i testowany – taki test odbył się w grudniu 2019 w Rosji i podobno wypadł pomyślnie. „Bałkanizacja sieci” (jej rozpad na kilka niezależnych i niepołączonych części) jest więc całkiem realnym scenariuszem.
Można jednak skutecznie blokować część adresów i ruchu lub używać możliwości technicznych sieci do eliminacji jakichś treści dla pewnych grup odbiorców. Najskuteczniejsze są oczywiście Chiny (kontrola dotyczy urządzeń, serwisów i treści), ale dzieje się to także w Rosji i wielu krajach arabskich, gdzie blokuje się różne serwisy, zmusza do zostawiania „otwartych furtek” dla rządowych hakerów, instalowania podsłuchów. Pozyskanych informacji używa się do śledzenia dysydentów i utrudniania działalności opozycji.
czytaj także
Także amerykańskie cyberkorporacje niemal zawsze dobrowolnie poddają się tym regulacjom, nie chcąc stracić lukratywnych, choć autorytarnych, rynków. Apple, który wcześniej teatralnie odmawiał FBI włamania do telefonu sprawcy masakry w San Bernardino, nie miał większych oporów, aby wycofać ze swojego sklepu apkę umożliwiającą unikanie policji w Hongkongu albo pozwolić na preinstalowanie rządowych aplikacji na iPhone’ach sprzedawanych w Rosji.
Gorzej z chmurą
Znacznie bardziej prawdopodobny wydaje się scenariusz awarii, która dotyka któregoś z wielkich centrów danych. Pamiętajmy, że jeśli coś naprawdę istotnego wydarzyło się w ostatniej dekadzie w technologiach informatycznych, to było to przeniesienie przetwarzania danych do tzw. chmury.
Lokalny komputer dzisiaj przetwarza bardzo niewiele – zamiast tego stanowi jedynie „końcówkę” i pokazuje to, co „wyprodukowały” centra danych. Te zaś, jak sama nazwa wskazuje, są scentralizowane. Zarówno pod względem dostawców (Amazon, Google, Microsoft, Akamai, Cloudflare i jeszcze kilku), jak i geografii (Europa i Ameryka Północna).
czytaj także
Nie tak dawno spłonęło centrum przetwarzania danych w Strasburgu, należące do francuskiej firmy OVH. Wiele firm, także polskich, miało niedostępne serwisy. Założyciel i prezes firmy Octave Klaba (notabene urodzony i mieszkający do 16. roku życia w Nowej Rudzie) namawiał klientów do wykupienia pakietu zabezpieczającego ciągłość w przypadku awarii (tzw. disaster recovery, DR) – ale to dość kosztowne rozwiązanie i nie wszyscy się na nie decydują.
Trzeba pamiętać, że współczesne strony i serwisy internetowe nie są ulokowane w jednej tylko lokalizacji geograficznej. Korzystają one najczęściej z globalnej sieci serwerów, dzięki którym zawartość stron internetowych można dostarczać użytkownikom znacznie szybciej. Korzysta się wówczas z sieci serwerów rozsianych po całym świecie. W tego typu rozwiązaniach stopień skomplikowania i współzależności jest jednak znacznie większy – czasem całkiem niewielka awaria w odległym kawałku globu może nieść konsekwencje dla niczego niespodziewających się klientów.
Na początku czerwca taka właśnie sytuacja zaistniała, kiedy doszło do awarii serwisu Fastly, dostarczającego zawartość m.in. brytyjskim gazetom i rządowi. Fastly jest swego rodzaju metaserwisem, czyli dostarcza zawartość i usługi innym dostawcom serwisów. Awaria po jego stronie spowodowała więc efekt domina na stronach klientów.
Daj mi swoje dane, a ja sprawię, że wybierzesz mojego kandydata
czytaj także
W 2016 miała miejsce inna ciekawa sytuacja, gdy jeden z informatyków z Oakland „zepsuł internet”, kasując 11 linijek kodu. 28-letni Azer Koçulu, zirytowany faktem, że korporacja domaga się zmiany jego prywatnego projektu, postanowił wycofać swój kod z pakietu oprogramowania open source. Kod ten był banalny, ale stosowany przez tak wielu programistów, że spowodowało to awarię serwisów takich jak Facebook i Reddit. Awaria miała ograniczone znaczenie – ale uzmysłowiła wszystkim, jak silna jest sieć powiązań i zależności i jak nieprzewidywalne mogą być skutki jednej zmiany.
„Wtórna centralizacja technologii”, która stała się faktem w wyniku migracji naszych danych do chmury obliczeniowej, jest więc realnym problemem.
Inwazja ingerencji w treść
Najbardziej prawdopodobnym scenariuszem globalnej awarii sieci jest więc nie tyle wyłączenie internetu jako takiego, ile cenzura jego treści. I tutaj, trzeba przyznać, najwięcej robią media społecznościowe. YouTube i Facebook dzierżą niechlubną palmę pierwszeństwa, jeśli chodzi o promocję teorii spiskowych, które zalały internet.
Sceptycy globalnego ocieplenia, rasiści, ksenofobi, antyszczepionkowcy, zwolennicy spiskowych teorii na temat sieci 5G – wszyscy oni znaleźli swoje miejsce w serwisach społecznościowych i umiejętnie wykorzystali je do promocji antynaukowych treści. Szczególnie mocno było to widać podczas epidemii koronawirusa. Facebook najpierw dał się poznać jako miejsce rozpowszechniania teorii spiskowych. Potem zaś wylał dziecko z kąpielą i zaczął ograniczać zasięg nawet wiarygodnym badaniom i wypowiedziom naukowców, jeśli tylko nie były zbieżne z obowiązującą doktryną.
czytaj także
Dziwna to sytuacja, kiedy bliżej nieokreślone „standardy społeczności” oraz anonimowa armia moderatorów treści przejmują rolę prawodawcy, sądu i organu wykonawczego. I to nie w wyniku demokratycznego procesu, ale siły oddziaływania korporacji. Nie zestawiając ze sobą chińskiego Wielkiego Ogniowego Muru (Great Chinese Firewall) oraz cyberkorporacji, trzeba zadawać pytania, dokąd zmierzamy. Enuncjacje ministra Ziobry na temat powołania polskiego i narodowego specsądu, do którego można zaskarżyć decyzje mediów społecznościowych, nie budzą chyba niczyjego zaufania. Głosy na temat moderacji treści i ograniczenia samowoli cyberkorporacji pobrzmiewają coraz częściej.
Na szali leżą wolność i bezpieczeństwo. Internet, w którym teoretycznie jest wolna transmisja i wymiana myśli ponad narodowymi granicami, de facto służy korporacjom i reżimom, a nie ludziom – wydanym na ich łaskę i pozbawionym demokratycznego wpływu. To raczej odwrotność wielkiego marzenia twórców ARPANET-u. Jak przywrócić równowagę – oto wielkie pytanie, przed którym stanął świat liberalnej demokracji i twórcy technologii.
Nie ma wyłącznika, ale wyłączyć można
Nie ma jednego „wyłącznika internetu”, którym ktoś, dzierżąc go w dłoniach, mógł zaburzyć całkowicie działanie globalnej sieci. Jest natomiast sieć ścisłych powiązań i zależności o nie do końca sprecyzowanej geometrii i sile. Bądź to przez przypadek, bądź w złej wierze można tę sieć powiązań wykorzystać na kilka sposobów. Odcinając pewne grupy użytkowników, odcinając pewne treści, a także – poprzez skupienie przetwarzania w centrach danych – doprowadzić do sytuacji, w której nastąpi „informacyjny blackout” na całych obszarach globu.
„Wyłączenie internetu” nie musi więc wcale oznaczać, jak w czasach wyścigu zbrojeń, fizycznego zniszczenia węzłów. Może przejawiać się jako zaburzenie łączności, unieczynnienie usług, celowe wprowadzenie błędu do oprogramowania albo sprawienie w ten czy inny sposób, że informacja przesyłana globalną siecią stanie się bezużyteczna i bezwartościowa.
Nie zapominajmy wreszcie, że komputery działają na prąd, a ten bierze się z surowców naturalnych: węgla, gazu, wody, ropy, uranu, albo też paneli i wiatraków wymagających kobaltu, erbu, iterbu, selenu i litu. Zaburzenie przebiegu informacji może zaistnieć, ale raczej na chwilę i w stosunku do ograniczonych grup. Możliwa jest natomiast długofalowa zmiana układu sił globalnych poprzez kontrolę nad energią i surowcami służącymi do jej generowania. I to – na razie – wydaje się znacznie bardziej prawdopodobne niż przypadkowy „pstryk” wyłączający internet.