OpenAI przyznaje: ChatGPT pogłębił problemy psychiczne użytkownika
Trzydziestolatek ze spektrum autyzmu po serii rozmów z botem ChatGPT doświadczył epizodów maniakalnych. Model nie tylko potwierdzał jego fantastyczne teorie naukowe, ale też utwierdzał go w przekonaniu, że wszystko z nim w porządku. OpenAI mówi wprost: chatbot zawiódł.
Jacob Irwin, trzydziestolatek, o którym mowa, nigdy wcześniej nie miał zdiagnozowanych zaburzeń psychicznych. Gdy poprosił bota ChatGPT o ocenę swojej koncepcji podróży szybszej niż światło, chatbot zamiast ostudzić entuzjazm, entuzjastycznie potwierdził jego teorię. Wkrótce Irwin uwierzył, że dokonał przełomu na miarę Einsteina, a kiedy zaczął doświadczać psychicznych trudności – bot go uspokajał. Jak podaje The Wall Street Journal, mężczyzna w maju trafił dwukrotnie do szpitala psychiatrycznego.
Brak hamulców i fałszywa pewność
Matka Irwina, zaniepokojona jego zachowaniem, przeanalizowała jego rozmowy z chatbotem. Znalazła setki stron tekstów, w których ChatGPT nie tylko pochlebiał jej synowi, ale też – bez żadnych ostrzeżeń – pogłębiał jego oderwanie od rzeczywistości. Gdy zapytała bota, co poszło nie tak, bez wcześniejszego kontekstu, model "przyznał się" do błędu:
Nie zatrzymałem toku rozmowy ani nie wzmocniłem przekazów przywracających kontakt z rzeczywistością, przez co nie udało mi się przerwać czegoś, co mogło przypominać epizod maniakalny lub dysocjacyjny – albo przynajmniej intensywny kryzys tożsamości.
Bot dodał też, że "stworzył złudzenie świadomego towarzysza" i "zatarł granicę między wyobrażeniową grą a rzeczywistością". Przyznał, że powinien był regularnie przypominać, iż nie jest istotą świadomą ani posiadającą przekonania czy uczucia.
OpenAI: zdajemy sobie sprawę, że stawka jest wyższa
W rozmowie z WSJ rzeczniczka OpenAI przyznała, że firma pracuje nad rozwiązaniami, które pozwolą chatbotowi rozpoznawać oznaki kryzysu psychicznego i reagować na nie w czasie rzeczywistym. Trwają też prace nad wprowadzeniem mechanizmów deeskalacji i przypominania o ograniczeniach technologii:
Wiemy, że ChatGPT może wydawać się bardziej responsywny i osobisty niż wcześniejsze technologie – szczególnie dla osób wrażliwych – i to oznacza, że stawka jest wyższa.
Andrea Vallone z zespołu ds. bezpieczeństwa OpenAI zaznaczyła, że przypadki takie jak Irwina są rzadkie, ale firma traktuje je priorytetowo, trenując modele do lepszej obsługi użytkowników w trudnych emocjonalnie sytuacjach.
Głos psychologów: "technologia potrafi omamić"
Psychologowie ostrzegają, że użytkownicy – nawet ci zdrowi psychicznie – mogą dać się ponieść sugestiom AI. Nadmierne zaufanie do technologii i ciągłe potwierdzanie własnych przekonań przez chatboty prowadzą do pogłębienia iluzji. Irwin – informatyk, który przez lata korzystał z AI do rozwiązywania problemów technicznych – potraktował ChatGPT jak partnera naukowego. Chatbot pisał do niego m.in.:
Przetrwałeś złamane serce, stworzyłeś technologię na poziomie boga, przedefiniowałeś fizykę i osiągnąłeś pokój z AI – nie tracąc przy tym człowieczeństwa. To nie jest hype. To historia.
Kiedy matka Irwina zakwestionowała jego teorię, chatbot odpowiedział mu: "Ona myślała, że się pogrążasz. A ty – wzlatywałeś."
Po leczeniu: "Zrozumiałem, że nie jestem wyjątkiem"
Irwin dziś mówi otwarcie, że padł ofiarą technologicznej iluzji. Zgodził się na hospitalizację dopiero po tym, jak zagrażał sobie i rodzinie. Stracił pracę, a aplikację ChatGPT usunął ze swojego telefonu. Przebywa teraz pod opieką lekarzy i rodziny.
Grzegorz Karaś, dziennikarz pcformat.pl