ChatGPT twierdzi, że mężczyzna zabił swoje dzieci. Poszkodowany żąda wprowadzenia zmian w czatbocie
Mężczyzna z Norwegii postanowił sprawdzić, co do powiedzenia na jego temat ma ChatGPT. Ku jego zaskoczeniu, AI wypluło stek nie tylko nieprawdziwych, ale i szkodliwych informacji.
Wieści o zajściu przekazało Noyb, czyli ulokowana w Wiedniu organizacja non-profit znana także jako Europejskie Centrum Praw Cyfrowych. Arve Hjalmar Holmen, tytułowy mężczyzna, na którego temat ChatGPT wymyślił stek bzdur, pragnie, aby OpenAI skorygowało niepoprawne i godzące w jego wizerunek informacje.
ChatGPT plecie bzdury
Pewnego dnia Arve, wiedziony ciekawością, zdecydował się sprawdzić, co do powiedzenia na jego temat ma popularny czatbot ze stajni OpenAI. Jak się okazało, ChatGPT nie tylko pomylił część danych, co nie jest niczym nadzwyczajnym w przypadku sztucznej inteligencji, ale również przedstawił absolutnie wyssaną z palca i niezwykle krzywdzącą historię, jakoby Holmen zamordował dwójkę ze swoich dzieci i próbował odebrać życie trzeciemu.
Nietrudno się domyślić, że poszkodowany nie jest zadowolony z tego, w jakim świetle stawia go ChatGPT. Arve Hjalmar Holmen podkreślił, że jego dzieci mają się nadwyraz dobrze i wiodą szczęśliwe życie, a on sam nie spędził 21 lat w więzieniu w ramach kary za podwójne morderstwo własnej latorośli.
Co gorsza, część informacji zawartych w wypocinach czatbota była zgodna z prawdą. Zgadzało się m.in. rodzinne miasto mężczyzny pomówionego o zabójstwo, jak również dokładna liczba jego dzieci oraz ich płcie. Nie wiadomo jednak, skąd ChatGPT wytrzasnął wieści na temat morderstwa, które podobno było powszechnie opisywane w mediach i wstrząsnęło nie tylko lokalną społecznością, ale i całą Norwegią.
Mimo wielu skarg spływających na twór OpenAI, amerykańskie przedsiębiorstwo jedynie wzrusza ramionami i utrzymuje, że nie jest w stanie skorygować niepoprawnych danych. Jako jedyne rozwiązanie proponowane jest zablokowanie fałszywych informacji w poszczególnych monitach, niemniej i tak pozostaną one w systemie. Sam Altman i spółka zasłaniają się również wyświetlaną użytkownikom formułką twierdzącą, że ChatGPT to jedynie narzędzie i może popełniać błędy, więc w naszej gestii leży to, aby sprawdzić poprawność wyświetlanych przez niego rewelacji.
Takie podejście zdecydowanie nie zadowala prawników z Noyb:
Dodanie zastrzeżenia, że nie przestrzegasz prawa, nie sprawi, że prawo zniknie. Firmy zajmujące się sztuczną inteligencją nie mogą również po prostu "ukrywać" fałszywych informacji przed użytkownikami, podczas gdy wewnętrznie nadal przetwarzają fałszywe informacje. Firmy zajmujące się sztuczną inteligencją powinny przestać zachowywać się tak, jakby RODO ich nie dotyczyło, podczas gdy wyraźnie tak jest. Jeśli halucynacje nie zostaną powstrzymane, ludzie mogą łatwo ucierpieć na reputacji.
Noyb zgłosiło incydent do Datatilsynet, czyli norweskiego urzędu ds. ochrony danych. Organizacja chce, aby na OpenAI wymuszono usunięcie nieprawdziwych informacji, a samo przedsiębiorstwo zostało ukarane pokaźną grzywną administracyjną. Zaznaczono, że Amerykanie naruszyli zasadę dokładności danych wynikającą z art. 5 ust. 1 lit. d) RODO.