Kraj

Lokatorzy piszą pozwy z ChatemGPT. Czy AI pomoże zdemokratyzować samopomoc prawną?

Czy tego chcemy, czy nie, lokatorzy są skazani na pomoc społeczników i pasjonatów, na niewdzięczną i nadludzką pracę „siłaczek”. Co się stanie, jeśli ten nadludzki wysiłek otrzyma nieludzkie wsparcie sztucznej inteligencji? Od ponad pół roku prowadzę taki eksperyment.

Od 16 lat działam w Komitecie Obrony Praw Lokatorów. Podczas dyżurów i na prywatnych czatach szukamy praktycznych rozwiązań problemów, które zgłaszają nam lokatorzy. Mogą to być problemy z odmową przyznania pomocy mieszkaniowej przez władze dzielnicy, z właścicielem zreprywatyzowanej kamienicy, czy bezprawnymi eksmisjami z mieszkań prywatnych.

Pomocy należy szukać na przecięciu przepisów prawnych: Ustawy o ochronie praw lokatorów, Kodeksu cywilnego, uchwał o najmie i kodeksów postępowania administracyjnego i cywilnego. Często konieczne jest punktowe działanie medialne lub strategiczne działanie polityczne rozpisane na lata. Zakładając Komitet, nie miałyśmy ani prawniczego wykształcenia, ani wiedzy. Jednak nauczyłyśmy się wygrywać batalie prawne dla lokatorów, a studenci prawa wkrótce przychodzili do nas po praktyki. Wypracowałyśmy metody, które odmieniły życie tysięcy ludzi.

To nie jest kraj dla lokatorów

czytaj także

Największym problemem dla lokatorów jest złożoność samego prawa. Aby zakwalifikować się do najmu, trzeba spełnić szereg kryteriów i przejść przez labirynt, który często wydaje się nie mieć wyjścia. Zrozumienie tekstu ustaw i uchwał wymaga skupienia oraz wiedzy, której większość ludzi nie posiada. Wielu nie jest w stanie nie tylko poprawnie sformułować pisma sądowego, ale nawet opisać swojej sytuacji faktycznej. Nasza praca wymaga więc ogromnej uważności. Czasem przypomina pracę detektywistyczną. Dokumentów jest za dużo albo nie ma ich wcale. Do tego dochodzi brak dobrej woli ze strony urzędów, celowa dezinformacja interesantów i motywowana ideologicznie chęć wygaszenia mieszkalnictwa komunalnego, charakteryzująca wszystkie rządy III RP.

ChatGPT w walce o prawa lokatorskie – nowe narzędzie w rękach mieszkańców

Sztuczna inteligencja wdarła się w obszar naszego aktywizmu nieproszona. Lokatorzy zaczęli generować sobie pozwy przez ChatGPT, do kompletu z halucynowanymi wyrokami Sądu Najwyższego. Losowa jakość takich pism nie oznacza, że są nieskuteczne. Czasem jedynym oczekiwanym wynikiem jest spowolnienie niekorzystnych zdarzeń i nawet nieprawidłowe pisma mogą osiągnąć taki efekt.

Wszystko, co chcecie wiedzieć o sztucznej inteligencji, ale boicie się zapytać

Niektórzy lokatorzy mają problem z formułowaniem myśli na piśmie, więc już samo opisanie swojej sytuacji jest dla nich wyzwaniem. Gdy pokazuję im, że ChatGPT może błyskawicznie wygenerować nienagannie napisane podanie na podstawie kilku wskazówek podanych językiem potocznym – są oczarowani. Nie muszą już przezwyciężać swojego wstydu, bo uzasadnienia pisane przez sztuczną inteligencję brzmią naturalnie i opierają się na mocnych podstawach. Otrzymali w ten sposób moc, której wcześniej nie mieli. Mogą z niej korzystać samodzielnie. Nie zapomnę też wyrazu twarzy osób niesłyszących, które dzięki AI mogą otrzymać transkrypcję mówionych słów prawie natychmiast po ich nagraniu. Nie zapomnę łez wzruszenia osób niewidzących, które otrzymują dokładne opisy wydrukowanych dokumentów i muszą tylko skierować na nie swój telefon.

Wiadomości, które przychodzą na naszą skrzynkę mailową z całej Polski, są często bardzo emocjonalne. Mieszają się w nich dramatyczne prośby o pomoc, zawiłe opisy sytuacji i dziesiątki nieistotnych faktów. To bardzo utrudnia ich analizę i obciąża emocjonalnie osobę czytającą.

Wstępne „przetrawienie” wiadomości przez AI niweluje stres emocjonalny i poznawczy. Sprawa staje się bardziej zrozumiała. Zamiast ściany emocjonalnego tekstu widzimy podsumowanie problemów wyrażone w punktach.

Odpowiedzialność bez wynagrodzenia – ryzyko błędów w pomocy prawnej dla lokatorów

Odpowiadanie na prośby o pomoc jest obarczone bardzo dużą odpowiedzialnością. Nie pobieramy za to żadnego wynagrodzenia i nikt nas nie rozlicza, ale świadomość tego, jak ogromny może być nasz wpływ na czyjeś życie, czasem paraliżuje. Co, jeśli się pomylę, jeśli źle zinterpretuję przepisy? Co, jeśli wybiorę niewłaściwą formę pozwu lub skargi? A jeśli pozwę niewłaściwy podmiot? Czy nie lepiej nie brać na siebie tej odpowiedzialności i pozostawić sprawy specjalistom?

Ikonowicz: Biznes nielegalnych eksmisji

Problem polega na tym, że specjaliści nie są tym zainteresowani. Chcą zarabiać pieniądze, a lokatorzy pieniędzy nie mają. Ci, którzy pracują pro bono, są przeciążeni i dla ochrony własnego zdrowia odmawiają przyjmowania dodatkowych spraw. Prawnicy przyznawani z urzędu niekiedy popełniają więcej błędów niż amatorzy, bo im nie zależy, a system ich za to nie karze. Czy tego chcemy, czy nie, lokatorzy są skazani na pomoc społeczników i pasjonatów, na niewdzięczną i nadludzką pracę „siłaczek”. Co się stanie, jeśli ten nadludzki wysiłek otrzyma nieludzkie wsparcie sztucznej inteligencji? Od ponad pół roku prowadzę taki eksperyment.

Jak korzystać z AI odpowiedzialnie? – promptowanie i unikanie błędów

Aby efektywnie używać sztucznej inteligencji, czyli dużych modeli językowych (ang. Large Language Models – LLM), trzeba rozumieć, jak działają i czym są. A przede wszystkim – czym nie są. Nie są inteligencją w potocznym tego słowa znaczeniu. Nie znają odpowiedzi na pytania i niczego nie rozumieją. Ich zadaniem jest wytworzenie prawdopodobnego ciągu słów w odpowiedzi na otrzymany ciąg słów. To wszystko. Prawdopodobieństwo obliczane jest na podstawie danych, na których został wytrenowany model, czyli całego internetu i całej wiedzy dostępnej ludzkości. Rzeczy mądrych i głupich. Wszystkich osiągnięć myśli ludzkiej, ale też najbardziej perfidnych uprzedzeń i manipulacji. A także zwyczajnych błędów. Oczekiwanie, że na takiej podstawie możemy zawsze otrzymać prawidłową odpowiedź, jest nierozsądne. Możemy jednak wystarczająco często otrzymać wystarczająco dobre odpowiedzi. Nawet te niepełne i nie do końca poprawne znacząco przyspieszają pracę z dokumentami.

Jakiego typu agentów AI próbuje stworzyć branża sztucznej inteligencji?

Wydawanie poleceń sztucznej inteligencji, czyli tzw. promptowanie, nie podlega tym samym regułom co rozmowa z człowiekiem. Nie jest intuicyjne. Na przykład dobrym rozwiązaniem wspomnianego na początku problemu halucynowanych orzeczeń sądów jest dodanie prostych instrukcji, takich jak: „Nie wymyślaj sygnatur wyroków Sądu Najwyższego. Wyszukaj sygnaturę wyroku w internecie, a jeśli jej nie znajdziesz, nie używaj jej”. Większość aplikacji LLM potrafi już przeszukiwać internet na żądanie i przed podaniem odpowiedzi może dodać do swoich odpowiedzi analizę danych wyszukanych na bieżąco.

Może to brzmieć dziwnie – czy maszyna nie powinna od razu wiedzieć, że nie należy zmyślać wyników? A jeśli zmyśliła, to skąd może wiedzieć, że zmyśliła? Jednak instrukcja z prośbą o weryfikację danych działa i wynika to z konstrukcji samego mechanizmu modelu językowego oraz sposobu, w jaki został wytrenowany. Orzeczenia sądów są zawarte w zamkniętych systemach, takich jak Lex, do których wyszukiwarka LLM nie ma dostępu. Fragmenty orzeczeń są dostępne w różnych innych zasobach i z nich LLM „skleja” sobie prawdopodobny wyrok. W trakcie wymyślania wyroku LLM „nie wie”, że wymyśla, ale po fakcie może zbadać własny tok „rozumowania” i przyznać, że nie miał wystarczających podstaw. Dlatego dodatkowa instrukcja działa i poprawia jakość odpowiedzi.

Między sztuczną inteligencją a edukacją cyfrową zieje olbrzymia luka

czytaj także

Aplikacje takie jak Claude pozwalają też tworzyć projekty, w których zawarta jest specyficzna wiedza, na przykład uchwały o najmie z poszczególnych miast. Te dane będą brane pod uwagę podczas udzielania odpowiedzi na pytania i znacznie poprawiają trafność uzyskanych wskazówek. Można zapytać Claude’a, czy osoba z określonym dochodem spełnia kryterium otrzymania lokalu w Łodzi lub Oleśnicy, a odpowiednio skonfigurowany projekt udzieli prawidłowej odpowiedzi. Sama po latach pracy w Komitecie znam na pamięć warszawską uchwałę o najmie, ale nauczenie się uchwał obowiązujących we wszystkich miastach w Polsce przekracza moje możliwości. Teraz mogę tworzyć projekty z wiedzą specyficzną dla tych miast i otrzymywać prawidłowe odpowiedzi. Moje możliwości zostały w ten nadludzki sposób zwielokrotnione.

Czy sztuczna inteligencja demokratyzuje pomoc prawną?

Czy można zatem uznać, że technologia sztucznej inteligencji zdemokratyzuje dostęp do pomocy prawnej i pozwoli osobom nieposiadającym odpowiednich zdolności i borykającym się z niepełnosprawnościami na działanie równie skuteczne, co działanie specjalistów? Nie do końca i nie w pełnym zakresie. Bariery wejścia do wiedzy prawnej zostały znacznie obniżone, brak umiejętności językowych już tak nie wyklucza. Jednak sprawdzanie poprawności wygenerowanych pozwów i analiz nadal wymaga ogromnej wiedzy i doświadczenia dostępnego nielicznym.

**

Zenobia Żaczek – Współzałożycielka Komitetu Obrony Praw Lokatorów i Związku Syndykalistów Polski. Od 2009 roku zajmuje się udzielaniem porad dla osób borykających się z problemami mieszkaniowymi. Organizuje protesty w obronie praw lokatorów i pracowników. Brała udział w pracach w komisjach sejmowych nad ustawą ds. reprywatyzacji, rewitalizacji i nowelizacjami ustawy o ochronie praw lokatorów. Walczyła o zakaz zwrotów kamienic wraz z lokatorami i podłączanie kamienic do centralnego ogrzewania. Zawodowo zajmuje się programowaniem, ze specjalizacją w dostępności cyfrowej dla osób z niepełnosprawnościami.

__
Przeczytany do końca tekst jest bezcenny. Ale nie powstaje za darmo. Niezależność Krytyki Politycznej jest możliwa tylko dzięki stałej hojności osób takich jak Ty. Potrzebujemy Twojej energii. Wesprzyj nas teraz.

Zamknij