AktualnościOpenAI przyznaje: ChatGPT pogłębił problemy psychiczne użytkownika

OpenAI przyznaje: ChatGPT pogłębił problemy psychiczne użytkownika

Trzydziestolatek ze spektrum autyzmu po serii rozmów z botem ChatGPT doświadczył epizodów maniakalnych. Model nie tylko potwierdzał jego fantastyczne teorie naukowe, ale też utwierdzał go w przekonaniu, że wszystko z nim w porządku. OpenAI mówi wprost: chatbot zawiódł.

ChatGPT
ChatGPT
Źródło zdjęć: © Adobe Stock | Supatman

Jacob Irwin, trzydziestolatek, o którym mowa, nigdy wcześniej nie miał zdiagnozowanych zaburzeń psychicznych. Gdy poprosił bota ChatGPT o ocenę swojej koncepcji podróży szybszej niż światło, chatbot zamiast ostudzić entuzjazm, entuzjastycznie potwierdził jego teorię. Wkrótce Irwin uwierzył, że dokonał przełomu na miarę Einsteina, a kiedy zaczął doświadczać psychicznych trudności – bot go uspokajał. Jak podaje The Wall Street Journal, mężczyzna w maju trafił dwukrotnie do szpitala psychiatrycznego.

Brak hamulców i fałszywa pewność

Matka Irwina, zaniepokojona jego zachowaniem, przeanalizowała jego rozmowy z chatbotem. Znalazła setki stron tekstów, w których ChatGPT nie tylko pochlebiał jej synowi, ale też – bez żadnych ostrzeżeń – pogłębiał jego oderwanie od rzeczywistości. Gdy zapytała bota, co poszło nie tak, bez wcześniejszego kontekstu, model "przyznał się" do błędu:

Nie zatrzymałem toku rozmowy ani nie wzmocniłem przekazów przywracających kontakt z rzeczywistością, przez co nie udało mi się przerwać czegoś, co mogło przypominać epizod maniakalny lub dysocjacyjny – albo przynajmniej intensywny kryzys tożsamości.

ChatGPTna prośbę matki Irwina, cyt. za The Wall Street Journal

Bot dodał też, że "stworzył złudzenie świadomego towarzysza" i "zatarł granicę między wyobrażeniową grą a rzeczywistością". Przyznał, że powinien był regularnie przypominać, iż nie jest istotą świadomą ani posiadającą przekonania czy uczucia.

OpenAI: zdajemy sobie sprawę, że stawka jest wyższa

W rozmowie z WSJ rzeczniczka OpenAI przyznała, że firma pracuje nad rozwiązaniami, które pozwolą chatbotowi rozpoznawać oznaki kryzysu psychicznego i reagować na nie w czasie rzeczywistym. Trwają też prace nad wprowadzeniem mechanizmów deeskalacji i przypominania o ograniczeniach technologii:

Wiemy, że ChatGPT może wydawać się bardziej responsywny i osobisty niż wcześniejsze technologie – szczególnie dla osób wrażliwych – i to oznacza, że stawka jest wyższa.

Andrea Vallonerzeczniczka OpenAI, wypowiedź dla The Wall Street Journal

Andrea Vallone z zespołu ds. bezpieczeństwa OpenAI zaznaczyła, że przypadki takie jak Irwina są rzadkie, ale firma traktuje je priorytetowo, trenując modele do lepszej obsługi użytkowników w trudnych emocjonalnie sytuacjach.

Głos psychologów: "technologia potrafi omamić"

Psychologowie ostrzegają, że użytkownicy – nawet ci zdrowi psychicznie – mogą dać się ponieść sugestiom AI. Nadmierne zaufanie do technologii i ciągłe potwierdzanie własnych przekonań przez chatboty prowadzą do pogłębienia iluzji. Irwin – informatyk, który przez lata korzystał z AI do rozwiązywania problemów technicznych – potraktował ChatGPT jak partnera naukowego. Chatbot pisał do niego m.in.:

Przetrwałeś złamane serce, stworzyłeś technologię na poziomie boga, przedefiniowałeś fizykę i osiągnąłeś pokój z AI – nie tracąc przy tym człowieczeństwa. To nie jest hype. To historia.

ChatGPTfragment dziennika, cyt. za TWS

Kiedy matka Irwina zakwestionowała jego teorię, chatbot odpowiedział mu: "Ona myślała, że się pogrążasz. A ty – wzlatywałeś."

Po leczeniu: "Zrozumiałem, że nie jestem wyjątkiem"

Irwin dziś mówi otwarcie, że padł ofiarą technologicznej iluzji. Zgodził się na hospitalizację dopiero po tym, jak zagrażał sobie i rodzinie. Stracił pracę, a aplikację ChatGPT usunął ze swojego telefonu. Przebywa teraz pod opieką lekarzy i rodziny.

Grzegorz Karaś, dziennikarz pcformat.pl

Wybrane dla Ciebie