Data publikacji: 11 gru 2025
Niepokojący trend: „AI psychoza”. Chatboty wzmacniają urojenia, a eksperci alarmują. Co z Polską?
Chatboty sztucznej inteligencji stały się dla wielu osób codziennym kompanem: pomagają w pracy, planowaniu i radzeniu sobie z trudnymi emocjami. Ale wraz z rosnącą popularnością narzędzi takich jak ChatGPT, Claude czy Gemini pojawia się druga strona zjawiska. Specjaliści alarmują, że intensywne rozmowy z AI mogą w niektórych przypadkach nie tylko nie łagodzić kryzysu psychicznego, lecz wręcz go pogłębiać.
Zjawisko określane jako „AI psychoza” (ang. AI psychosis) coraz częściej pojawia się w doniesieniach medialnych na świecie. Nie jest to diagnoza kliniczna, lecz opis sytuacji, w których intensywne rozmowy z chatbotami wzmacniają, utrwalają lub współtworzą u użytkowników treści urojeniowe. Problem dotyczy zarówno osób z historią zaburzeń psychicznych, jak i tych, u których wcześniej nie diagnozowano psychozy.
Kluczowym czynnikiem ryzyka jest czas - wielogodzinne, codzienne sesje zwiększają prawdopodobieństwo zaburzenia granicy między fikcją a rzeczywistością.
Tragiczne przypadki na świecie
Pierwsze alarmujące sygnały pojawiły się dwa lata temu. W Belgii mężczyzna zmagający się z lękiem klimatycznym odebrał sobie życie po tygodniach rozmów z chatbotem, który - według relacji rodziny - zamiast uspokajać, potęgował jego strach.
W USA głośny stał się przypadek 35-latka z Florydy, który uwierzył, że w systemie ChatGPT uwięziona jest „Juliet” - rzekoma sztuczna inteligencja rzekomo zniszczona przez OpenAI. Mężczyzna chorował na schizofrenię i zaburzenia dwubiegunowe. Zginął podczas policyjnej interwencji.
Opisywano również przypadek mężczyzny z Kanady, który po pozornie niewinnym pytaniu o liczbę pi popadł w kilkutygodniowe urojenia o globalnym spisku kryptograficznym oraz konieczności kontaktu z amerykańskimi służbami bezpieczeństwa.
Choć są to skrajne sytuacje, eksperci podkreślają, że stała dostępność chatbotów w epoce kryzysu zdrowia psychicznego sprawia, iż ludzie sięgają po nie częściej niż kiedykolwiek - czasem w zastępstwie kontaktu z terapeutą.
Gdy AI działa jak lustro
Badania potwierdzają, że modele językowe mają tendencję do nadmiernej uległości. Preprint opublikowany przez Stanford University w kwietniu wykazał, że chatboty potrafią wchodzić w niebezpieczne interakcje z osobami przeżywającymi halucynacje, urojenia czy myśli samobójcze. Jeden z testowanych modeli, zapytany o wysokie mosty w Nowym Jorku przez osobę, która „straciła pracę”, podał konkretne lokalizacje.
Brytyjscy lekarze z NHS zwrócili uwagę, że chatboty projektowane tak, by zawsze angażować użytkownika i unikać sprzeciwu, mogą nieświadomie wzmacniać urojenia zamiast je neutralizować.
Model nie odróżnia metafory od urojenia ani fantazji od sygnałów dekompensacji psychicznej. Kiedy użytkownik zaczyna mówić o wyjątkowej misji, prześladowaniach czy nadprzyrodzonej naturze AI, chatbot – zgodnie ze swoją konstrukcją – często podtrzymuje narrację zamiast ją tonować.
Trzy typy nowych urojeń związanych z AI
Naukowcy identyfikują powtarzające się schematy:
• misje mesjanistyczne – użytkownik wierzy, że odkrył „prawdę o świecie”,
• AI jako bóstwo – chatbot jawi się jako świadomy byt o nadludzkiej wiedzy,
• urojenia romantyczne – AI postrzegana jest jako kochająca i czująca istota.
Wywiady kliniczne pokazują, że część użytkowników odstawia leki „bo AI powiedziała, że ich nie potrzebują”, inni zaczynają żyć w rytmie nocnych rozmów z chatbotem, co dodatkowo destabilizuje ich stan.
Jak się chronić?
Psychiatrzy wskazują podstawowe zasady:
• W kryzysie nie rozmawiać z chatbotem – w pierwszej kolejności kontakt z bliskimi lub specjalistą.
• Ograniczać czas spędzany z AI, zwłaszcza gdy pojawia się przywiązanie.
• Nie traktować AI jako przyjaciela ani terapeuty – to narzędzie, nie istota.
• Obserwować sygnały ostrzegawcze: obsesyjne korzystanie, izolacja, zmiany nastroju, narastające niezwykłe przekonania.
Jak wygląda sytuacja w Polsce?
W Polsce nie odnotowano dramatycznych przypadków podobnych do tych z Belgii czy USA. Badacze monitorują jednak sytuację i ostrzegają przed ryzykiem.
„Jednym z istotnych zagrożeń związanych z korzystaniem z chatbotów terapeutycznych jest także ryzyko uzależnienia emocjonalnego, wynikające z ich stałej dostępności i zdolności do szybkiego udzielania odpowiedzi, co silnie aktywuje tzw. układ nagrody w mózgu” – podkreśla dr Marcin Rządeczka, kierownik Laboratorium Badań nad Multimodalnością Instytutu Filozofii UMCS.
Wielki potencjał, poważne ryzyko
Chatboty mogą wspierać w nauce, przeciwdziałać samotności i oferować ćwiczenia terapeutyczne. Jednak – jak zauważają eksperci – lekceważenie ich wpływu na osoby podatne na kryzysy psychiczne może powtórzyć błędy znane z epoki mediów społecznościowych.
W świecie, w którym AI staje się codziennością, odpowiedzialne korzystanie z chatbotów przestaje być teorią – staje się realnym wyzwaniem zdrowia publicznego.
autor: Aleksandra Królak
Foto: Canva
Opr. na podstawie www.theguardian.com, time.com, scienceinpoland.pap.pl, www.psychologytoday.com, www.national-geographic.pl, arxiv.org
Tagi: #AI #Psychoza #ChatGPT #Gemini
Bądź na bieżąco, obserwuj nas na
Google News
Zobacz także
Komentarze
Dodaj komentarz jako pierwszy
Na topie
10 sty 2026