Wspieraj Wspieraj Wydawnictwo Wydawnictwo Dziennik Przekaż Przekaż

Polecamy nasze drony. Same świetnie zabijają, nie trzeba człowieka

Człowiek wciąż nie dopuścił do ruchu w pełni autonomicznego samochodu osobowego, który nie powodowałby kuriozalnych sytuacji na drodze. Za to od dłuższego czasu intensywnie opracowuje autonomiczne maszyny służące do likwidowania wrogów.

ObserwujObserwujesz
Kontekst

🤖 Broń autonomiczna (LAWS) może podejmować decyzje o ataku bez udziału człowieka, co budzi sprzeciw Międzynarodowego Czerwonego Krzyża i wielu organizacji międzynarodowych.

🌍 W ostatnich latach różne kraje – w tym Rosja, Turcja i USA – testowały lub używały autonomiczne systemy uzbrojenia w konfliktach zbrojnych na całym świecie.

📜 Zgromadzenie Ogólne ONZ przyjęło w 2024 roku rezolucję wzywającą do regulacji LAWS, ale część państw, w tym Polska i USA, sprzeciwia się ograniczeniom międzynarodowym.

Płacz

1

Chociaż człowiek wciąż nie dopuścił do ruchu w pełni autonomicznego samochodu osobowego, który mógłby swobodnie jeździć po całym kraju bez powodowania kuriozalnych sytuacji na drodze, to od dłuższego czasu intensywnie opracowuje autonomiczne maszyny służące do likwidowania wrogów. Etyczny dualizm doprowadził świat Zachodu do stanu, w którym we własnych krajach wprowadza się tak wysokie standardy, że trzeba uważać, co się mówi, za to przeciwników dehumanizuje się do tego stopnia, że wyrok śmierci może na nich wydać maszyna.

Jak na razie wyrok śmierci próbowała wydać amerykańska administracja na spółkę Anthropic. Firmę, której dziełem jest między innymi model sztucznej inteligencji Claude, oparty na uczeniu maszynowym z wykorzystaniem ogromnych ilości danych (tak zwany duży model językowy, LLM). Do niedawna założyciele przedsiębiorstwa z San Francisco, rodzeństwo Dario i Danieli Amodeich, mogli się czuć, jakby złapali pana Boga za nogi. Anthropic była jedyną spółką, która dostarczała rozwiązania AI do tajnych projektów wojskowych dla Pentagonu. Czar prysł, gdy Dario Amodei nakreślił czerwone linie, po których przekroczeniu zrezygnuje ze współpracy. Pentagon, zamiast je najpierw przekroczyć, od razu sam zrezygnował.

Czytaj także Zbrojenie Europy to w równej mierze szansa i zagrożenie Artur Troost

Anthropic wydał oświadczenie, w którym jasno stwierdza, że nie zgadza się na wykorzystanie jego programów w dwóch niecnych celach: masowej inwigilacji obywateli USA oraz tworzenia broni autonomicznej. Agencje rządowe USA już mogłyby śledzić i podsłuchiwać obywateli innych krajów przy użyciu Claude’a, jednak Pentagon uznał warunek za niedopuszczalne wiązanie mu rąk. „Wojsko musi mieć możliwość wykorzystywania technologii do wszystkich zgodnych z prawem celów” – napisano w oświadczeniu.

Problem w tym, że przywiązywanie się do prawa w Stanach Zjednoczonych za czasów Trumpa nie jest wskazane. Na początku swojej drugiej kadencji prezydent na podstawie ustawy IEEPA (International Emergency Economic Powers Act) nadał sobie prawo do zmiany niemal każdego prawa poprzez zwykłe zarządzenie, czyli z pominięciem Kongresu. Sąd Najwyższy może mu te decyzje podważyć, tak jak było z taryfami celnymi nałożonymi na niemal cały świat, jednak zanim do tego dojdzie, autonomiczni zabójcy mogą mieć już na koncie sporo ofiar.

Pentagon kontra Anthropic. Spór o wykorzystanie AI do inwigilacji i zabijania

Pentagon zapowiedział uznanie firmy Anthropic i jej produktów za zagrożenie dla łańcuchów dostaw. To zaś groziło spółce utratą wszystkich kontraktów z przedsiębiorstwami współpracującymi z amerykańską armią. Czyli niemal wszystkimi dużymi korporacjami technologicznymi z USA, co mogłoby uniemożliwić spółce Amodeich funkcjonowanie. Czołowe przedsiębiorstwa zbrojeniowe błyskawicznie zerwały kontrakty z Anthropic, jednak finalnie Departament Wojny okazał się łaskawy. Jak poinformował Dario Amodei, w piśmie od Pentagonu mowa była tylko o zakazie wykorzystania produktów jego firmy w projektach dla amerykańskiej armii. W projektach cywilnych Anthropic wciąż może kooperować z przedsiębiorstwami znad Potomaku.

Natura nie znosi próżni i jeszcze pod koniec lutego wakat zapełniła firma OpenAI Sama Altmana, znana szczególnie z programu ChatGPT. Jak zapewniło OpenAI, jego produkty nie będą służyć do masowej inwigilacji wewnętrznej (czyli niemasowej lub zewnętrznej jak najbardziej), do sterowania bronią autonomiczną czy podejmowania decyzji o „wielkiej wadze”.

Umowa jest jednak nieco bardziej precyzyjna. „System AI nie będzie wykorzystywany do samodzielnego sterowania bronią autonomiczną w żadnym przypadku, gdy prawo, przepisy lub polityka Departamentu wymagają kontroli ze strony człowieka” – napisano w dokumencie. Inaczej mówiąc, gdy prawo nie będzie wymagać kontroli ze strony człowieka, sztuczna inteligencja będzie mogła zabijać sama. A jak wiemy, wrogów zewnętrznych Waszyngton traktuje jak „wyciągniętych spod prawa”, dokonując na nich egzekucji, gdy tylko nadarzy się okazja. Teraz będzie łatwiej.

Chwilę po tym, jak uznano firmę Anthropic za niegodną współpracy z Pentagonem, wykorzystano Claude’a do ataku na Iran. Model AI odpowiadał za rozpoznanie, analizę danych wywiadowczych i lokalizację celów. Claude jest niedobry, lewacki (Trump nazwał zarząd Anthropic „lewicowymi szaleńcami”), ale gdy trzeba rozpętać kolejne piekło na Bliskim Wschodzie, to warto po niego sięgnąć. Poza tym Anthropic został założony przez byłych pracowników OpenAI, którzy nie zgadzali się z kierunkiem rozwoju firmy.

Anthropic działa jako spółka pożytku publicznego (benefit corporation), w odróżnieniu od OpenAI, która przyjęła formę spółki prywatnej (odpowiednik polskiej spółki z ograniczoną odpowiedzialnością). Spółki pożytku publicznego kierują się nie tylko zyskiem, ale też szeregiem przyjętych celów społecznych i możliwością wywierania wpływu na rzeczywistość. Wykorzystanie produktów Anthropic przez Pentagon by się z tym kłóciło. No chyba że w statucie wśród celów znalazłoby się wyczyszczenie Ziemi z wrogów Ameryki, a za wywieranie wpływu uznalibyśmy zabijanie przeciwników.

Czytaj także Broń biednych. Jak wyglądają walki dronowe w 2025 roku? [korespondencja z obwodu sumskiego] Paweł Jędral

Sytuacja miała paradoksalny wpływ na obie firmy. Po podpisaniu kontraktu z Pentagonem w kłopoty wpadło OpenAI, gdyż rozpoczął się eksodus pracowników i klientów przedsiębiorstwa Altmana. Już w 2024 roku części pracowników i komentatorów nie spodobało się zniesienie zakazu wykorzystania produktów spółki do celów wojskowych. Równocześnie nastąpiła masowa rezygnacja z subskrypcji ChataGPT, którego udział w rynku narzędzi AI spadł do 68 proc. (wcześniej przekraczał 90 proc.). Popularność zaczął za to zyskiwać Claude, który stał się najczęściej pobieraną aplikacją w USA. Według analizy Aleksandry Wójtowicz z PISM, Anthropic niemal zrównał się pod względem rocznych przychodów z OpenAI (licząc krocząco) – w pełni zrówna się w połowie tego roku.

Broń autonomiczna (LAWS): czym jest i dlaczego budzi sprzeciw Czerwonego Krzyża?

Broń autonomiczna jest niezwykle kontrowersyjna i pod koniec 2024 roku Zgromadzenie Ogólne ONZ przyjęło rezolucję w sprawie ograniczenia jej stosowania. „Za” głosowało 166 członków, „przeciw” całych 3 (Białoruś, Korea Północna i Rosja), a 15 wstrzymało się od głosu. Rezolucja nie jest jednak wiążąca, to jedynie stanowisko. Wzywa ona do uregulowania kwestii autonomicznych robotów zabijających na szczeblu międzynarodowym.

Broń autonomiczną dzieli się na trzy rodzaje. Półautonomiczna samodzielnie lokalizuje cele, które może następnie zlikwidować tylko za zgodą człowieka. Nadzorowana broń autonomiczna samodzielnie lokalizuje i likwiduje cele, ale człowiek nieustannie trzyma nad nią pieczę i może ją w każdej chwili wyłączyć. Broń w pełni autonomiczna śledzi i zabija bez nadzoru człowieka – jego rolą jest tylko uruchomienie maszyny. Dwie ostatnie kategorie zaliczane są do tak zwanych systemów LAWS (Lethal Autonomous Weapon Systems), których zakazu lub przynajmniej ograniczenia domaga się Międzynarodowy Czerwony Krzyż. Według stanowiska MCK, autonomiczna broń niesie ze sobą ryzyko wyrządzenia krzywdy cywilom oraz niebezpieczeństwo eskalacji konfliktów. Grozi też łamaniem prawa międzynarodowego, zwłaszcza przepisów dotyczących ochrony ludności cywilnej podczas prowadzenia działań zbrojnych. Poza tym zastępuje ludzkie decyzje o życiu i śmierci procesami opartymi na czujnikach, oprogramowaniu i uczeniu maszynowym.

Według MCK nieprzewidywalne autonomiczne systemy uzbrojenia powinny zostać bezwzględnie zakazane. Użycie autonomicznych systemów uzbrojenia do bezpośrednich ataków lub użycia siły wobec ludzi również powinno zostać wykluczone. Cele systemów LAWS muszą być ograniczone wyłącznie do obiektów o jednoznacznym wykorzystaniu wojskowym. Ramy funkcjonalności powinny też uwzględniać tylko konkretne obszary oraz wąski przedział czasowy, a maszynę musi nieustannie kontrolować człowiek, który w każdej chwili może ją zdezaktywować. Roboty typu LAWS nie powinny przy tym działać w obszarach zamieszkanych przez ludność cywilną.

Jednym z najbardziej zaawansowanych systemów broni autonomicznej jest Phalanx produkcji amerykańskiego Raytheona. To działko stanowiące ostatnią barierę ochronną dla amerykańskich okrętów wojskowych, które działa na krótkich dystansach przeciw wrogim rakietom, pociskom artyleryjskim i dronom. Działko jest wyposażone w system CIWS (Close-In Weapon System), który automatycznie śledzi otoczenie i podejmuje decyzje o wystrzale. Nie jest w stanie rozróżnić obiektów wrogich od swoich. Podejmuje decyzje na podstawie szeregu kryteriów, takich jak kierunek, tor i prędkość zbliżającego się obiektu. System uderza tylko w cele, które zbliżają się do okrętu i definitywnie w niego uderzą. Innym przykładem broni autonomicznej jest HARPY, czyli połączenie drona z amunicją krążącą. Zadaniem tego bezzałogowca jest wykrywanie i niszczenie urządzeń radiolokacyjnych.

Czytaj także Battle-tested, czyli sprawdzone w Gazie. Jak aktywiści sprzeciwili się izraelskim koncernom w Kielcach Paweł Jędral

O ile działko Phalanx CIWS i drona HARPY można od biedy uznać za zgodne z zaleceniami MCK, gdyż pierwsze ma na celu obronę okrętu przed ostrzałem, a drugie powinno niszczyć tylko radary, nie ludzi, to już kolejne dwa przykłady mogą zostać użyte do ataków na człowieka – i zostały. Rosyjska amunicja krążąca Lancet-3, opracowana przez Zala Aero, służy zarówno do rozpoznania, jak i niszczenia wybranych celów – także w powietrzu. Rosjanie wykorzystywali ją w Syrii, a obecnie korzystają z niej w Ukrainie. Turecki STM Kargu to autonomiczny quadrocopter, który został stworzony wyłącznie w celu walk z bojówkami podczas tak zwanej wojny asymetrycznej, czyli typowych konfliktów toczonych przez Ankarę. Kargu-2 był wykorzystywany do walki z powstańcami w Syrii i Libii, a wojska Azerbejdżanu stosowały go przeciw Armenii podczas wojny o Górski Karabach w 2020 roku.

Konwencja regulująca wykorzystywanie LAWS potrzebna na wczoraj

Jesteśmy dopiero na początku drogi. Można się spodziewać, że każdy kolejny sukces broni typu LAWS będzie działał jak motor napędowy dla kolejnych badań oraz innowacji w tym zakresie. Konwencja dotycząca wykorzystywania LAWS jest więc potrzebna na już, ponieważ gdy tego typu broń wejdzie do stałego użytku czołowych armii świata, będzie za późno – przecież jej posiadacze nie zgodzą się na utopienie miliardów dolarów czy bilionów rubli z powodu jakiejś „naiwnej” i najpewniej „lewackiej” konwencji.

Niestety, według danych zbieranych na bieżąco przez think tank Automated Decision Research, wciąż 12 krajów zdecydowanie sprzeciwia się przyjęciu międzynarodowego prawa ograniczającego stosowanie LAWS. Wśród nich znajdziemy między innymi Rosję, Białoruś, Koreę Północną, USA, Izrael, Wielką Brytanię, Japonię, Indie oraz… Polskę.

Komentarze

Krytyka potrzebuje Twojego głosu. Dołącz do dyskusji. Komentarze mogą być moderowane.

Zaloguj się, aby skomentować
0 komentarzy
Komentarze w treści
Zobacz wszystkie