AktualnościChatGPT sprawdzi wiek użytkowników. "Bezpieczeństwo przed prywatnością i wolnością nastolatków"

ChatGPT sprawdzi wiek użytkowników. "Bezpieczeństwo przed prywatnością i wolnością nastolatków"

Nie brak przypadków sytuacji, w których to kontakt ze sztuczną inteligencją doprowadził do podjęcia opłakanych w skutkach działań przez nastolatków i dzieci. Twórcy ChatuGPT zaplanowali więc wprowadzenie pewnych ograniczeń w swoim narzędziu, a dotyczyć będą one osób, które nie ukończyły 18 roku życia.

ChatGPT
ChatGPT
Źródło zdjęć: © Licencjodawca

Wedle najnowszego tekstu opublikowanego na witrynie OpenAI, przedsiębiorstwo ma zamiar zwiększyć ochronę nastolatków podczas korzystania z ChatuGPT i zredukować ryzyko tego, że czatbot zacznie poruszać nieodpowiednie tematy. Firma ogłosiła, że bezpieczeństwo dzieci znajduje się aktualnie najwyżej na liście priorytetów, przeganiając prywatność oraz wolność. Co to oznacza dla użytkowników popularnego narzędzia?

ChatGPT sprawdzi wiek użytkowników

ChatGPT doczeka się implementacji systemu przewidywania wieku, a więc nie będzie on bazował jedynie na danych dostarczonych przez użytkowników podczas rejestracji konta. Sztuczna inteligencja oszacuje liczbę wiosen na karku swojego rozmówcy na podstawie prowadzonych z nim konwersacji i jeśli wciąż nie będzie miała stuprocentowej pewności, że obcuje z dorosłym człowiekiem, domyślnie zastosuje ustawienia dla osób poniżej 18 roku życia. W tym miejscu wypada przy tym nadmienić, że ChatGPT jest kierowany wyłącznie do tych, którzy mają co najmniej 13 lat, a więc najmłodsze dzieci w teorii nie powinny mieć do niego dostępu.

Największym problemem dla wielu miłośników czatbota może okazać się fakt, że OpenAI ma zamiar prosić obywateli wybranych państw o przedstawienie dowodu tożsamości. Na razie nie wiadomo, które kraje trafiły na tę listę, aczkolwiek niewykluczone, że dowiemy się tego w najbliższej przyszłości. Sam Altman i spółka podkreślili, że są świadomi tego, że może to stanowić poważne naruszenie prywatności, acz jest to niezbędny krok na drodze ku zapewnieniu odpowiedniej ochrony nieletnim.

Nie jest to łatwe zadanie i nawet najbardziej zaawansowane systemy mają czasem trudności z przewidywaniem wieku. Jeśli nie mamy pewności co do wieku danej osoby lub dysponujemy niekompletnymi informacjami, wybieramy bezpieczniejsze rozwiązanie i domyślnie stosujemy ustawienia dla osób poniżej 18 roku życia, dając dorosłym możliwość potwierdzenia swojego wieku w celu odblokowania funkcji przeznaczonych dla dorosłych.

OpenAI

Co zaś tyczy się ograniczeń nakładanych na ChatGPT – jeśli czatbot dojdzie do wniosku, że obcuje z nastolatkiem, powstrzyma się od wypowiedzi noszących znamiona flirtu, nie będzie również angażował się w rozmowy dotyczące wrażliwych tematów, takich jak samookaleczanie lub samobójstwo, nawet w kontekście twórczego pisania. Jeśli jednak AI dostrzeże, że sam użytkownik ma myśli samobójcze, podejmie próbę kontaktu z jego rodzicami. W przypadku, gdy to okaże się niemożliwe, a będzie istniało podejrzenie bezpośredniego zagrożenia dla życia, o sytuacji powiadomione zostaną odpowiednie organy.

Nim powyższe zmiany zostaną wdrożone, upłynie nieco czasu. Z tego też względu jeszcze przed końcem miesiąca luka ta zostanie chwilowo załatana przez opcję kontroli rodzicielskiej, która umożliwi wgląd w to, w jaki sposób dzieci porozumiewają się z ChatemGPT. Więcej informacji na ten temat znajdziemy w artykule "Budowanie prognozy wieku" opublikowanym na stronie OpenAI.

Jakub Dmuchowski, redaktor pcformat.pl

Wybrane dla Ciebie