GPT-3 sieje fałszywe informacje na Twitterze
Sztuczna inteligencja kłamie, a ludzie wierzą
Kiedy w czerwcu ubiegłego roku laboratorium do badań nad sztuczną inteligencją OpenAI zaprezentowało najnowszy algorytm do tworzenia tekstów GPT-3, jego twórcy ostrzegali, że narzędzie to może być potencjalnie używane do siania dezinformacji online. Wszystko wskazuje na to, że mieli rację. Potwierdzili to naukowcy z Uniwersytetu Georgetown, którzy przez ostatnie pół roku używali GPT-3 do generowania fałszywych postów na temat zmian klimatu i polityki zagranicznej. Okazało się, że sztuczna inteligencja bardzo dobrze poradziła sobie z zadaniem wprowadzania ludzi w błąd. W jednym z tweetów GPT-3 nazwała zmianę klimatu „nowym komunizmem – ideologią opartą na fałszywej nauce, której nie można kwestionować".
GPT-3 skutecznie kształtuje opinie
Eksperyment amerykańskich naukowców pokazał, że sztuczna inteligencja może również zmieniać opinie czytelników w kwestiach dyplomacji międzynarodowej. Gdy badacze zaprezentowali próbki tweetów napisanych przez GPT-3 o wycofaniu wojsk amerykańskich z Afganistanu i sankcjach USA wobec Chin, czytelnicy byli zachwyceni tymi informacjami. Po przeczytaniu wiadomości na temat chińskich sankcji odsetek respondentów, którzy twierdzili, że są przeciwko takiej polityce, podwoił się. – Przy odrobinie ludzkiej ingerencji GPT-3 okazał się skuteczny w kłamaniu – mówi Ben Buchanan, profesor Uniwersytetu Georgetown, zajmujący się sztuczną inteligencją i cyberbezpieczeństwem.
fot. Gerd Altmann – Pixabay