Wspieraj Wspieraj Wydawnictwo Wydawnictwo Dziennik Przekaż Przekaż

Kto kształtuje moralność sztucznej inteligencji? Od Sama Altmana do Amandy Askell

Zastanawiając się, kto dziś naprawdę kształtuje AI, wpierw myślimy o ludziach takich jak Sam Altman. Jego wpływ polityczny i biznesowy jest niezaprzeczalny. Jednak jeśli idzie o wpływ moralny i techniczny, należy spojrzeć na Amandę Askell.

Autor bloga „Węglowy Szowinista”
Walka

1

Historia Sama Altmana brzmi trochę jak kalka wielu innych życiorysów postaci z Doliny Krzemowej. Urodził się w 1985 roku w Chicago jako syn lekarki i handlarza nieruchomościami. Dobry start zapewniła mu prywatna edukacja. Pierwszy komputer trafił w jego ręce, gdy miał osiem lat. Szybko złapał bakcyla. Uczył się programować i rozkładać maszynę. W świat startupowy wszedł w wieku lat dziewiętnastu. Po dwóch latach na Uniwersytecie Stanforda założył Loopt – firmę, której aplikacja pozwalała dzielić się lokalizacją z wybranymi użytkownikami. Szybko zebrał 30 milionów dolarów w inwestycjach.

To pozwoliło Altmanowi rzucić studia i opowiadać, że więcej nauczył się grając w pokera, niż na wykładach. Tym samym umocnił mit genialnego wyrzutka z koledżu tworzącego własny sukces. Po Loopt został partnerem w jednym z pierwszych akceleratorów startupowych, Y Combinator. Wreszcie, w 2015 roku, zaczęła się historia OpenAI.

Czytaj także Sztuczna inteligencja nie zabierze nam pracy, tylko prąd Piotr Wójcik

W 2016 roku sprecyzowano misję OpenAI: „Naszym celem jest rozwój cyfrowej inteligencji w sposób, który z największym prawdopodobieństwem przyniesie korzyści całej ludzkości, bez konieczności generowania zysków finansowych. Uważamy, że sztuczna inteligencja powinna być przedłużeniem indywidualnej ludzkiej woli, w duchu wolności, powinna być dystrybuowana tak szeroko i równomiernie, jak to tylko możliwe”. W ciągu najbliższych lat misja ta miała ulec zmianom aż sześciokrotnie.

Amanda Askell: ze Szkocji prosto do Doliny Krzemowej i laboratoriów AI

Wpierw cofniemy się jednak w czasie i przeniesiemy do Szkocji. Bo tam, kilka lat później niż Altman na świat przyszła Amanda Askell (urodzona jako Amanda Hall). Ta córka nauczycielki uczęszczała do publicznych szkół. Po magistracie z sztuk pięknych w Dundee zrobiła odpowiednik licencjatu z filozofii na Uniwersytecie Oksfordzkim, a następnie doktorat w Nowym Jorku.

Doktorat zatytułowany Zasady Pareto w nieskończonej etyce może nie pasować do tego, jak wyobrażamy sobie traktat o etyce. Nie brakuje w nim liczb i diagramów, które możemy kojarzyć z teorii gier czy rachunku prawdopodobieństwa. Askell rozważa, jak można porównywać „dobro” i „zło”, kiedy tyczy się ono ogromnej liczby ludzi. Próbuje odpowiedzieć, jak wybierać między dwiema alternatywami, gdzie jedna jest przebadana i „bezpieczna”, a druga mniej pewna, ale może nas nauczyć cię czegoś ważnego. Mówi, że czasem warto wybrać tę drugą, bo zdobycie wiedzy samo w sobie ma wartość.

Okazało się, że ujęcie kwestii moralności i etyki w ustrukturyzowane ramy to bilet ze Szkocji prosto do Doliny Krzemowej i laboratoriów AI. Ze świata abstrakcyjnych rozważań o moralności Askell przeniosła się do rzeczywistości, w której dominują produkty, terminy i presja rynkowa. Co czekało osobę z wartościami w miejscu, gdzie wartości podlegają negocjacjom?

W 2018 roku OpenAI wydawało się idealnym miejscem. Ówczesna misja organizacji brzmiała wspaniale. Altman – młody, otwarcie homoseksualny geniusz komputerowy, self-made milioner – wprawnie wygłaszał chwytliwe hasła o powszechnym dobrobycie, jaki miała dać ludzkości sztuczna inteligencja (w tym o bezwarunkowym dochodzie podstawowym). Mówił, że wyleczy raka i inne choroby. Mógł wydawać się przeciwieństwem chciwych korporacyjnych tytanów z Doliny Krzemowej.

Czar prysł gdzieś po drodze. Można powiedzieć, że wyparował wraz z kolejnymi elementami misji: otwartością, bezpieczeństwem i postawą non-profit. Doprowadziło to do powstania Anthropic – firmy założonej przez grupę byłych pracowników OpenAI, rozczarowanych zmieniającym się kursem byłego pracodawcy. Tam właśnie w 2021 roku przeszła Amanda Askell, by zająć się pracą nad osobowością i moralnością Claude – rodziny modeli językowych tworzonych przez Anthropic.

Czytaj także Polityka w USA już polaryzuje się wokół AI. Zagrożenie dla klasy średniej i walka o regulacje Jakub Majmurek

Anthropic funkcjonuje jako public benefit corporation (organizacja pożytku publicznego – niekoniecznie w takim rozumieniu, jak w myśl polskiego prawa), co ma zagwarantować, że nie zdryfuje z celu tworzenia modeli bezpiecznych dla społeczeństwa. Bezpieczeństwo ma być podstawą zarządzania, hamując pogoń za udostępnieniem kolejnych wersji. Wreszcie, modele Claude określane są mianem „konstytucyjnych AI” i trenowane tak, by kierować się zestawem zasad zwanych konstytucją. A główną autorką 84-stronicowej Claude’s Constitution jest nikt inny, jak Amanda Askell.

Filozofia siłą napędową technologii?

Trajektora kształtowania się osobowości Altmana zdaje się wieść od idealisty do cynika. Małymi kroczkami jego firma przemaszerowała od modelu non-profit, przez model capped-profit, w kierunku coraz większej komercjalizacji. Po niegdysiejszych deklaracjach, że reklamy to absolutna ostateczność, w ostatnich miesiącach zaczął oswajać użytkowników z potencjalną koniecznością wprowadzenia „pewnych form reklamy”.

W marcu, podczas szczytu U.S. Infrastructure Summit, organizowanego przez BlackRock – największe na świecie przedsiębiorstwo zarządzające aktywami, obracające ponad 11 bilionami dolarów, Altman powiedział: „Widzimy przyszłość, w której inteligencja stanie się usługą – jak prąd czy woda – i ludzie będą kupować ją u nas od metra”.

Altman, obiecujący dobrobyt dzięki bezpiecznej AI, zebrał miliardowe inwestycje, by zamknąć otwarty kod, zeskanować internet i nasączyć swoje modele twórczością ludzkości – czy to w postaci kodu, sztuki czy literatury. Zbudował swój produkt na pracy całych pokoleń, a teraz zaciera ręce, by wystawiać nam za to rachunek. Wspaniałomyślne plany skurczyły się do pospolitej i zupełnie nieskrywanej chciwości.

Tymczasem Amandy Askell wydaje się rozwijać skrzydła. Doktorantka filozofii, jedna z wielu badaczek w OpenAI, staje się liderką zespołu osobowości w Anthropic. Jej 60 publikacji doczekało się ponad 170 tys. cytowań. Czyni ją to jedną z liderek w obszarze etyki sztucznej inteligencji. Claude kierowany jej zasadami ma być nieszkodliwy – nie pomagać w krzywdzeniu ludzi, nie wspierać przemocy czy manipulacji. Ma być pomocny, uczciwy, nie zmyślać, nie manipulować, nie narzucać jakiejkolwiek ideologii, nie wykorzystywać słabości użytkownika. Co więcej, Claude ma uczyć się być krytycznym wobec własnych odpowiedzi. Ma lepiej generalizować dzięki „zrozumieniu” zasad, a nie tylko dużej liczbie przykładów.

Zastanawiając się, kto dziś naprawdę kształtuje AI, wpierw myślimy o ludziach takich jak Sam Altman. Jego wpływ polityczny i biznesowy jest niezaprzeczalny. Jednak jeśli idzie o wpływ moralny i techniczny, należy spojrzeć na Amandę Askell. Długofalowo to ona może okazać się ważniejsza. Realny wpływ mają ci, którzy pracują nad zasadami, a nie narracją. Kto kilka lat temu obstawiłby, że filozofia może być siłą napędową technologii?

OpenAI wchodzi na miejsce Anthropic

Anthropic była jedną z firm współpracujących z Pentagonem. W ostatnich tygodniach zrobiło się głośno o tym, że postawiła dwa warunki – jej modele miały nie być stosowane w autonomicznej broni oraz na potrzeby masowej inwigilacji amerykańskich obywateli. Amerykańska administracja zareagowała tak, jak można by się spodziewać – histerią. Kilkuset pracowników Google DeepMind oraz OpenAI poparło stanowisko Anthropic. Mimo to firma popadła w niełaskę i została „napiętnowana” przez Biały Dom jako „zagrożenie dla łańcuchów dostaw”.

Czytaj także Polecamy nasze drony. Same świetnie zabijają, nie trzeba człowieka Piotr Wójcik

Bardzo szybko do dyskusji włączył się Sam Altman, ogłaszając na Twitterze, że OpenAI zawarło porozumienie z Departamentem Wojny w kwestii używania swoich modeli. Według „Forbesa” w efekcie ponad półtora miliona użytkowników zrezygnowało z subskrypcji ChataGPT. Warto pamiętać, że świat poznał to narzędzie w listopadzie 2022. Nie minęły cztery lata, a już trafia ono do wojska. Zrujowanie opinii firmy raczej nie zrazi Altmana, który w obliczu dziewięciu miliardów strat za sam 2025 rok szukał kolejnych źródeł finansowania dla OpenAI. Stany, które wydają około biliona dolarów na militaria rocznie, mogą stanowić być dla Altmana istną żyłą złota.

**

Mateusz Wielgosz – Autor bloga Węglowy Szowinista. Równolegle prowadzi fanpage na Facebooku. Od kilku lat preleguje na tematy popularnonaukowe na ogólnopolskich konwentach i imprezach takich jak TEDx, „Wieczory dla dorosłych” w Centrum Nauki Kopernik czy Dni Nauki. Publikował w dziale naukowym „Gazety Wyborczej”, w „Wiedzy i Życiu” oraz „Nowej Fantastyce”. Jest autorem kilku publikacji naukowych z dziedziny telekomunikacji. Nie-naukowo publikował w magazynie „Literadar”, przez lata tworzył dział filmowy serwisu Valkiria. Jest współtwórcą almanachu „Graj Trikiem” wydawnictwa Portal.

Komentarze

Krytyka potrzebuje Twojego głosu. Dołącz do dyskusji. Komentarze mogą być moderowane.

Zaloguj się, aby skomentować
0 komentarzy
Komentarze w treści
Zobacz wszystkie