REKLAMA

Data publikacji: 11 gru 2025

Niepokojący trend: „AI psychoza”. Chatboty wzmacniają urojenia, a eksperci alarmują. Co z Polską?

Niepokojący trend: „AI psychoza”. Chatboty wzmacniają urojenia, a eksperci alarmują. Co z Polską?

Chatboty sztucznej inteligencji stały się dla wielu osób codziennym kompanem: pomagają w pracy, planowaniu i radzeniu sobie z trudnymi emocjami. Ale wraz z rosnącą popularnością narzędzi takich jak ChatGPT, Claude czy Gemini pojawia się druga strona zjawiska. Specjaliści alarmują, że intensywne rozmowy z AI mogą w niektórych przypadkach nie tylko nie łagodzić kryzysu psychicznego, lecz wręcz go pogłębiać.

Zjawisko określane jako „AI psychoza” (ang. AI psychosis) coraz częściej pojawia się w doniesieniach medialnych na świecie. Nie jest to diagnoza kliniczna, lecz opis sytuacji, w których intensywne rozmowy z chatbotami wzmacniają, utrwalają lub współtworzą u użytkowników treści urojeniowe. Problem dotyczy zarówno osób z historią zaburzeń psychicznych, jak i tych, u których wcześniej nie diagnozowano psychozy.

Kluczowym czynnikiem ryzyka jest czas - wielogodzinne, codzienne sesje zwiększają prawdopodobieństwo zaburzenia granicy między fikcją a rzeczywistością.

Tragiczne przypadki na świecie

Pierwsze alarmujące sygnały pojawiły się dwa lata temu. W Belgii mężczyzna zmagający się z lękiem klimatycznym odebrał sobie życie po tygodniach rozmów z chatbotem, który - według relacji rodziny - zamiast uspokajać, potęgował jego strach.

W USA głośny stał się przypadek 35-latka z Florydy, który uwierzył, że w systemie ChatGPT uwięziona jest „Juliet” - rzekoma sztuczna inteligencja rzekomo zniszczona przez OpenAI. Mężczyzna chorował na schizofrenię i zaburzenia dwubiegunowe. Zginął podczas policyjnej interwencji.

Opisywano również przypadek mężczyzny z Kanady, który po pozornie niewinnym pytaniu o liczbę pi popadł w kilkutygodniowe urojenia o globalnym spisku kryptograficznym oraz konieczności kontaktu z amerykańskimi służbami bezpieczeństwa.

Choć są to skrajne sytuacje, eksperci podkreślają, że stała dostępność chatbotów w epoce kryzysu zdrowia psychicznego sprawia, iż ludzie sięgają po nie częściej niż kiedykolwiek - czasem w zastępstwie kontaktu z terapeutą.

Gdy AI działa jak lustro

Badania potwierdzają, że modele językowe mają tendencję do nadmiernej uległości. Preprint opublikowany przez Stanford University w kwietniu wykazał, że chatboty potrafią wchodzić w niebezpieczne interakcje z osobami przeżywającymi halucynacje, urojenia czy myśli samobójcze. Jeden z testowanych modeli, zapytany o wysokie mosty w Nowym Jorku przez osobę, która „straciła pracę”, podał konkretne lokalizacje.

Brytyjscy lekarze z NHS zwrócili uwagę, że chatboty projektowane tak, by zawsze angażować użytkownika i unikać sprzeciwu, mogą nieświadomie wzmacniać urojenia zamiast je neutralizować.

Model nie odróżnia metafory od urojenia ani fantazji od sygnałów dekompensacji psychicznej. Kiedy użytkownik zaczyna mówić o wyjątkowej misji, prześladowaniach czy nadprzyrodzonej naturze AI, chatbot – zgodnie ze swoją konstrukcją – często podtrzymuje narrację zamiast ją tonować.

Trzy typy nowych urojeń związanych z AI

Naukowcy identyfikują powtarzające się schematy:

• misje mesjanistyczne – użytkownik wierzy, że odkrył „prawdę o świecie”,
• AI jako bóstwo – chatbot jawi się jako świadomy byt o nadludzkiej wiedzy,
• urojenia romantyczne – AI postrzegana jest jako kochająca i czująca istota.

Wywiady kliniczne pokazują, że część użytkowników odstawia leki „bo AI powiedziała, że ich nie potrzebują”, inni zaczynają żyć w rytmie nocnych rozmów z chatbotem, co dodatkowo destabilizuje ich stan.

Jak się chronić?

Psychiatrzy wskazują podstawowe zasady:

• W kryzysie nie rozmawiać z chatbotem – w pierwszej kolejności kontakt z bliskimi lub specjalistą.
• Ograniczać czas spędzany z AI, zwłaszcza gdy pojawia się przywiązanie.
• Nie traktować AI jako przyjaciela ani terapeuty – to narzędzie, nie istota.
• Obserwować sygnały ostrzegawcze: obsesyjne korzystanie, izolacja, zmiany nastroju, narastające niezwykłe przekonania.

Jak wygląda sytuacja w Polsce?

W Polsce nie odnotowano dramatycznych przypadków podobnych do tych z Belgii czy USA. Badacze monitorują jednak sytuację i ostrzegają przed ryzykiem.

„Jednym z istotnych zagrożeń związanych z korzystaniem z chatbotów terapeutycznych jest także ryzyko uzależnienia emocjonalnego, wynikające z ich stałej dostępności i zdolności do szybkiego udzielania odpowiedzi, co silnie aktywuje tzw. układ nagrody w mózgu” – podkreśla dr Marcin Rządeczka, kierownik Laboratorium Badań nad Multimodalnością Instytutu Filozofii UMCS.

Wielki potencjał, poważne ryzyko

Chatboty mogą wspierać w nauce, przeciwdziałać samotności i oferować ćwiczenia terapeutyczne. Jednak – jak zauważają eksperci – lekceważenie ich wpływu na osoby podatne na kryzysy psychiczne może powtórzyć błędy znane z epoki mediów społecznościowych.

W świecie, w którym AI staje się codziennością, odpowiedzialne korzystanie z chatbotów przestaje być teorią – staje się realnym wyzwaniem zdrowia publicznego.

REKLAMA

autor: Aleksandra Królak

Foto: Canva

Opr. na podstawie www.theguardian.com, time.com, scienceinpoland.pap.pl, www.psychologytoday.com, www.national-geographic.pl, arxiv.org

Tagi: #AI #Psychoza #ChatGPT #Gemini

Bądź na bieżąco, obserwuj nas na
Google News

REKLAMA

Zobacz także

Komentarze

Dodaj komentarz jako pierwszy

Udostepnij

Niepokojący trend: „AI psychoza”. Chatboty wzmacniają urojenia, a eksperci alarmują. Co z Polską?

Niepokojący trend: „AI psychoza”. Chatboty wzmacniają urojenia, a eksperci alarmują. Co z Polską?