Sednem wielu ludzkich działań nie jest zbieranie i przetwarzanie danych, lecz dokonywanie odkryć – a to doświadczenie będzie nam coraz rzadziej dane, jeśli wszystkie decyzje przejmą agenci AI.
„Agenci” sztucznej inteligencji nadchodzą – nawet jeśli nie jesteśmy na to gotowi. Co prawda wciąż bardzo trudno określić z dużą pewnością, kiedy modele AI zdobędą zdolność do autonomicznego wchodzenia w interakcje z platformami cyfrowymi, innymi narzędziami opartymi na AI albo nawet z ludźmi, ale nie sposób wątpić, że będzie to zmiana przełomowa (na dobre lub na złe).
Temat jest szeroko komentowany – i pojawiło się wokół niego dużo szumu – a jednak w dyskusji nie wybrzmiało wiele ważnych pytań, z których najbardziej istotne to: jakiego typu agentów AI próbuje stworzyć branża sztucznej inteligencji?
Modele są różne i wiążą się z nimi zupełnie odmienne implikacje. W podejściu, które nazwę „AI jako doradca”, chodzi o to, że sztuczna inteligencja ma podawać indywidualnie skalibrowane rekomendacje ludziom podejmującym decyzję i że to ludzie mają pozostać za kierownicą. Tymczasem w modelu „autonomicznej sztucznej inteligencji” ludzie oddają stery AI. Implikacje tego rozróżnienia są głębokie i daleko idące.
Podatek cyfrowy: nie za reklamy, tylko za zrobienie z nas automatycznych zabawek
czytaj także
Każdego dnia ludzie podejmują setki decyzji, które czasem mają poważne konsekwencje dla ich kariery, środków utrzymania i majątku albo poczucia szczęścia. Są one często podejmowane na podstawie niedoskonałych informacji lub przy asymetrii informacji oraz pod wpływem emocji, intuicji, instynktów lub impulsów.
Zgodnie ze słynną tezą Davida Hume’a: „Rozum jest i winien być tylko niewolnikiem uczuć” (Traktat o naturze ludzkiej, tom II, cz. III, rozdz. III, tłum. Czesław Znamierowski). Przy większości decyzji ludzie nie stosują systematycznego rozumowania i nie zwracają należnej uwagi na pełne skutki danego wyboru, ale – jak odnotował Hume, pisząc, że rozum „winien być” niewolnikiem uczuć – taki stan rzeczy nie jest taki zły. Właśnie to czyni nas ludźmi. Pasja odzwierciedla cel i jest być może kluczowa, żebyśmy mogli radzić sobie w tym skomplikowanym świecie.
Dzięki sztucznym doradcom podającym przydatne informacje dostosowane do danej sytuacji oraz kontekstu ludzie mogliby podejmować wiele lepszych decyzji, ale ludzkie motywacje wciąż zachowałyby prymat. Cóż złego miałoby być w tym, że autonomiczna sztuczna inteligencja dokonywałaby wyborów za nas? Czy takie decyzje nie byłyby jeszcze lepsze? Czy nie byłaby to oszczędność czasu i redukcja błędów?
W tej perspektywie kryje się kilka mankamentów. Po pierwsze ludzka sprawczość (ang. human agency) ma fundamentalne znaczenie dla uczenia się i rozwoju ludzi. Akt podejmowania decyzji i rozważania możliwych wyników danego wyboru sam w sobie jest afirmacją naszego poczucia sprawczości oraz celowości (nawet jeśli oparty jest na danych i radach sztucznej inteligencji). Sednem wielu ludzkich działań nie jest zbieranie i przetwarzanie danych, lecz dokonywanie odkryć – a to doświadczenie będzie nam coraz rzadziej dane, jeśli wszystkie decyzje przejmą agenci AI.
Ponadto, kiedy branża technologiczna będzie głównie rozwijać model agentów autonomicznych, to prawdopodobieństwo, że jeszcze więcej prac wykonywanych obecnie przez ludzi zostanie zautomatyzowanych, znacznie wzrośnie. Lecz jeśli sztuczna inteligencja ma przede wszystkim posłużyć za środek do przyspieszenia automatyzacji, to wszelkie nadzieje na dobrobyt dzielony przez szerokie części społeczeństwa trzeba będzie przekreślić.
czytaj także
Jeszcze ważniejsze jest to, że istnieje zasadnicza różnica między agentami AI, którzy występują w imieniu ludzi, a ludźmi, którzy działają sami. W wielu przestrzeniach ludzkich interakcji pojawiają się zarówno elementy kooperacji, jak i konfliktu. Weźmy dla przykładu jakąś jedną firmę, która jest poddostawcą drugiej. Jeśli dostarczane przez nią podzespoły, komponenty, dane czy usługi są wystarczająco wartościowe dla firmy kupującej, to wspólny handel jest korzystny dla obu przedsiębiorstw (i zwykle dla społeczeństwa).
Jednak żeby w ogóle doszło do wymiany, to najpierw należy wyznaczyć cenę danego komponentu czy usługi w ramach procesu, w który wpisany jest konflikt. Im wyższa cena, tym większa korzyść sprzedającego w stosunku do kupującego. Wynik takiego handlu jest przeważnie wypadkową funkcjonowania norm (na przykład norm dotyczących uczciwości), instytucji (takich jak kontrakty, których naruszenie wiąże się z kosztami) oraz sił rynkowych (na przykład czynników takich jak to, czy sprzedawca ma możliwość zaoferowania komponentu komuś innemu). Ale wyobraźmy sobie, że kupujący słynie z tego, że nie idzie na żadne kompromisy, i nie chce przyjąć żadnej oferty oprócz najniższej możliwej. Jeśli innych kupujących nie ma, to sprzedający może być zmuszony do przyjęcia takiej ceny.
Na szczęście w naszych codziennych transakcjach tak bezkompromisowa postawa jest rzadkością. Wynika to trochę z tego, że zła reputacja nie popłaca, ale przede wszystkim, że ludzie nie mają żelaznych nerwów ani aspiracji, by zachowywać się w tak agresywny sposób.
Wyobraźmy sobie teraz, że kupujący ma agenta AI, który nie przejmuje się ludzkimi uprzejmościami i posiada nieludzkie nerwy ze stali. Taką sztuczną inteligencję można przeszkolić, by zawsze wykazywała taką bezkompromisowość, a kontrahent nie będzie miał żadnej nadziei, że jakoś uda się załatwić zawarcie umowy, która będzie korzystniejsza dla obu stron. Tymczasem w świecie sztucznych doradców AI może nadal rekomendować, by nie iść na żadne ustępstwa, ale decyzja o wyborze takiej ścieżki pozostanie koniec końców w rękach człowieka.
Narodowi konserwatyści tańczą, jak Musk im zagra. Ale nadal nie wiedzą, jaka to melodia
czytaj także
W najbliższym czasie za sprawą agentów AI wejdziemy w okres nowych światowych nierówności, kiedy tylko niektóre firmy i poszczególne osoby będą miały dostęp do sprawnych, niesłychanie zawziętych modeli sztucznej inteligencji. Tyle że nic nie zmieni się na lepsze, jeśli wszyscy uzyskają te same narzędzia. Nasze społeczeństwa zostaną poddane skutkom zagrywek „na wyniszczenie” prowadzonych przez agentów AI, którzy wszystkie konfliktowe sytuacje będą doprowadzać do skraju przepaści.
Takie konfrontacje są z gruntu ryzykowne. W grze w tchórza, gdzie dwóch kierowców przyspiesza, jadąc na czołowe zderzenie i przegrywa ten, który skręci pierwszy, zawsze może się zdarzyć, że nikt nie ustąpi. W takiej sytuacji obaj kierowcy „wygrywają” – i obaj giną.
Sztuczna inteligencja, którą nauczymy grać w tchórza, nigdy nie skręci. AI może podawać przydatne, wiarygodne i stosowne informacje w czasie rzeczywistym i być dobrą doradczynią dla ludzi, ale świat autonomicznych agentów AI oznacza zapewne wiele nowych problemów oraz zaprzepaszczenie wielu korzyści, które możemy uzyskać dzięki technologii.
**
Daron Acemoglu jest laureatem Nagrody Nobla w dziedzinie ekonomii z 2024 roku, profesorem ekonomii na uczelni MIT oraz współautorem (z Simonem Johnsonem) książki zatytułowanej Power and Progress: Our Thousand-Year Struggle Over Technology and Prosperity (PublicAffairs, 2023).
Copyright: Project Syndicate, 2025. www.project-syndicate.org. Z angielskiego przełożył Maciej Domagała.