AktualnościChatGPT czerpie wiedzę z... Grokipedii. AI Elona Muska stała się dla czatbota źródłem informacji nt. Holokaustu i polityki w Iranie

ChatGPT czerpie wiedzę z... Grokipedii. AI Elona Muska stała się dla czatbota źródłem informacji nt. Holokaustu i polityki w Iranie

Czy wąż zaczął zjadać swój własny ogon? Okazuje się, że nowe modele ChatuGPT traktują Grokipedię jako wiarygodne źródło wiedzy i podczas udzielania odpowiedzi na kontrowersyjne tematy często bazują swoją opinię na informacjach wygenerowanych przez sztuczną inteligencję Elona Muska. Z relacji wynika, iż Grok stał się ekspertem w takich dziedzinach jak Holakust oraz irańska polityka.

ChatGPT
ChatGPT
Źródło zdjęć: © Licencjodawca

Redakcja dziennika The Guardian odkryła, że nowa odsłona ChatuGPT nie stroni od powoływania się na Grokipedię podczas udzielania odpowiedzi na zadawane przez użytkowników pytania. Z przeprowadzonych testów wynikło, iż twór OpenAI skorzystał z informacji wygenerowanych przez sztuczną inteligencję od xAI oraz Elona Muska dziewięć razy na ponad tuzin przypadków. Jak podkreślono, miało to miejsce w szczególności w przypadku zapytań dotyczących wrażliwych, acz względnie niszowych tematów, takich jak aspekty Holokaustu lub struktury polityczne w Iranie. Prócz tego ChatGPT popierał swoje twierdzenia wiedzą z Grokipedii podczas opisywania pensji w siłach paramilitarnych Basidż, wywodów wokół Fundacji Mostazafan i jej właścicieli, a nawet przy opisie sylwetki brytyjskiego historyka Sir Richarda Evansa.

Sztuczna inteligencja staje się źródłem informacji dla sztucznej inteligencji

O Grokipedii wspominaliśmy już w październiku minionego roku, kiedy to "niezależna" i "nastawiona na prawdę" alternatywa dla Wikipedii została oddana do użytku. Choć głównym celem projektu Muska było "wyplenienie propagandy", nie brak opinii, iż rezultat jest zgoła odwrotny do zamierzonego, a generowane przez AI wpisy zawierają wiele informacji powszechnie uważanych za nieprawdziwe. Co więcej, w przeciwieństwie do Wikipedii, ludzie nie mają możliwości ingerowania we wpisy (i jest to działanie zamierzone) – zamiast tego głównym, a zarazem jedynym, redaktorem treści jest Grok. A skąd dokładnie sztuczna inteligencja czerpie informacje wykorzystywane do "pisania" tekstów, tego akurat nie wiadomo.

Wiadomo zaś to, że wypociny Groka stały się rzetelnym źródłem dla ChatuGPT. Na chwilę obecną jedynym modelem ze stajni OpenAI, który ucieka się do korzystania z twórczości AI Elona Muska, jest GPT-5.2. Przedstawiciel wspomnianego w poprzednim zdaniu przedsiębiorstwa podkreślił, że wyszukiwarka internetowa GPT-5.2 została stworzona w taki sposób, aby czerpała z "szerokiej gamy publicznie dostępnych źródeł i punktów widzenia", co nie wyklucza platform pokroju kontrowersyjnej Grokipedii. Nadmieniono także, iż ChatGPT pokazuje źródła cytowań, a samo narzędzie zostało zabezpieczone za pomocą wielu filtrów, mających dbać o to, aby ryzyko pobrania danych z potencjalnie groźnych linków było jak najmniejsze.

Sytuacja ta jest dowodem na to, że modele sztucznej informacji stają się pożywką dla siebie nawzajem, a kolejne iteracje generowanych przez nie treści zaczynają zalewać sieć we wręcz zastraszającym tempie. Badacze dezinformacji biją na alarm, niemniej nie zanosi się na to, aby problem ten miał zostać rozwiązany w najbliższej przyszłości. Grokipedia jest przy tym jedynie wierzchołkiem góry lodowej, jako że w Internecie nietrudno znaleźć mniej godne zaufania serwisy.

The Guardian postanowił w rzeczonej sprawie zasięgnąć opinii xAI, niemniej reprezentant firmy oddelegowany do kontaktu z dziennikarzami przekazał jedynie, że "tradycyjne media kłamią".

Jakub Dmuchowski, redaktor pcformat.pl

Wybrane dla Ciebie