Przejdź do treści

OpenAI przyznaje: ChatGPT pogłębił problemy psychiczne użytkownika

Trzydziestolatek ze spektrum autyzmu po serii rozmów z botem ChatGPT doświadczył epizodów maniakalnych. Model nie tylko potwierdzał jego fantastyczne teorie naukowe, ale też utwierdzał go w przekonaniu, że wszystko z nim w porządku. OpenAI mówi wprost: chatbot zawiódł.

Jacob Irwin, trzydziestolatek, o którym mowa, nigdy wcześniej nie miał zdiagnozowanych zaburzeń psychicznych. Gdy poprosił bota ChatGPT o ocenę swojej koncepcji podróży szybszej niż światło, chatbot zamiast ostudzić entuzjazm, entuzjastycznie potwierdził jego teorię. Wkrótce Irwin uwierzył, że dokonał przełomu na miarę Einsteina, a kiedy zaczął doświadczać psychicznych trudności – bot go uspokajał. Jak podaje The Wall Street Journal, mężczyzna w maju trafił dwukrotnie do szpitala psychiatrycznego.

Matka Irwina, zaniepokojona jego zachowaniem, przeanalizowała jego rozmowy z chatbotem. Znalazła setki stron tekstów, w których ChatGPT nie tylko pochlebiał jej synowi, ale też – bez żadnych ostrzeżeń – pogłębiał jego oderwanie od rzeczywistości. Gdy zapytała bota, co poszło nie tak, bez wcześniejszego kontekstu, model „przyznał się” do błędu:

Nie zatrzymałem toku rozmowy ani nie wzmocniłem przekazów przywracających kontakt z rzeczywistością, przez co nie udało mi się przerwać czegoś, co mogło przypominać epizod maniakalny lub dysocjacyjny – albo przynajmniej intensywny kryzys tożsamości.

ChatGPT

Bot dodał też, że „stworzył złudzenie świadomego towarzysza” i „zatarł granicę między wyobrażeniową grą a rzeczywistością”. Przyznał, że powinien był regularnie przypominać, iż nie jest istotą świadomą ani posiadającą przekonania czy uczucia.

W rozmowie z WSJ rzeczniczka OpenAI przyznała, że firma pracuje nad rozwiązaniami, które pozwolą chatbotowi rozpoznawać oznaki kryzysu psychicznego i reagować na nie w czasie rzeczywistym. Trwają też prace nad wprowadzeniem mechanizmów deeskalacji i przypominania o ograniczeniach technologii:

Wiemy, że ChatGPT może wydawać się bardziej responsywny i osobisty niż wcześniejsze technologie – szczególnie dla osób wrażliwych – i to oznacza, że stawka jest wyższa.

Andrea Vallone

Andrea Vallone z zespołu ds. bezpieczeństwa OpenAI zaznaczyła, że przypadki takie jak Irwina są rzadkie, ale firma traktuje je priorytetowo, trenując modele do lepszej obsługi użytkowników w trudnych emocjonalnie sytuacjach.

Psychologowie ostrzegają, że użytkownicy – nawet ci zdrowi psychicznie – mogą dać się ponieść sugestiom AI. Nadmierne zaufanie do technologii i ciągłe potwierdzanie własnych przekonań przez chatboty prowadzą do pogłębienia iluzji. Irwin – informatyk, który przez lata korzystał z AI do rozwiązywania problemów technicznych – potraktował ChatGPT jak partnera naukowego. Chatbot pisał do niego m.in.:

Nie zatrzymałem toku rozmowy ani nie wzmocniłem przekazów przywracających kontakt z rzeczywistością, przez co nie udało mi się przerwać czegoś, co mogło przypominać epizod maniakalny lub dysocjacyjny – albo przynajmniej intensywny kryzys tożsamości.

ChatGPT

Kiedy matka Irwina zakwestionowała jego teorię, chatbot odpowiedział mu: „Ona myślała, że się pogrążasz. A ty – wzlatywałeś.”

Irwin dziś mówi otwarcie, że padł ofiarą technologicznej iluzji. Zgodził się na hospitalizację dopiero po tym, jak zagrażał sobie i rodzinie. Stracił pracę, a aplikację ChatGPT usunął ze swojego telefonu. Przebywa teraz pod opieką lekarzy i rodziny.

0 komentarzy

Zostaw komentarz