Chińczycy wykorzystują ChataGPT do "niecnych celów". OpenAI o rosnącym zagrożeniu
Zdaniem przedsiębiorstwa, liczba pochodzących z Chin ugrupowań korzystających z popularnego czatbota do generowania złośliwych lub propagandowych treści stale rośnie, ale ich działania na szczęście nie są zakrojone na szeroką skalę.
Wedle doniesień serwisu NPR, Chińczycy coraz częściej uciekają się do skorzystania z pomocy ChataGPT celem generowania treści postów i komentarzy zamieszczanych w mediach społecznościowych. Co ciekawe, osoby wykorzystujące w ten sposób narzędzie, nader często tworzą z jego pomocą także raporty nt. swoich poczynań, które następnie przedkładają pracodawcom.
Chińczycy generują złośliwe treści z pomocą ChataGPT
OpenAI przekazało, że na przestrzeni ostatnich trzech miesięcy wykryło i zakłóciło dziesięć operacji związanych z wykorzystaniem czatbota firmy w nieprzyzwoity sposób. Nie sprecyzowano przy tym, do czego dokładnie posłużył ChatGPT w każdym z tych przypadków, acz jasno dano do zrozumienia, że nie do takich celów został on stworzony. Konta osób biorących udział w tym procederze zostały zablokowane, a prawie połowa z nich (bo 4 z 10) pochodziła z Chin.
Ben Nimmo, główny badacz w zespole ds. wywiadu i dochodzeń OpenAI, przekazał, że to właśnie Chińczycy są coraz częściej przyłapywani na gorącym uczynku i "prowadzeniu rosnącej liczby tajnych operacji, w których stosuje się coraz więcej zróżnicowanych taktyk".
Ofiarą spamu generowanego przez ChatGPT na zlecenie obywateli Państwa Środka padały nie tylko obce mocarstwa i politycy, ale nawet gry komputerowe, a dokładniej – stworzona przez tajwańskie studio strategia, w której zadaniem gracza jest walka z siłami Komunistycznej Partii Chin. Nimmo poinformował, że działania prowadzone przez Chiny wykraczają poza pojedyncze platformy i łączą w sobie elementy operacji wpływu, nadzoru i inżynierii społecznej.
Wypociny czatbota, godzące m.in. we wspomnianą grę lub Donalda Trumpa i nałożone przez niego cła, można było znaleźć w różnych zakątkach Internetu, m.in. na X-ie, Facebooku, TikToku oraz Reddicie. Treści, które trudno było sklasyfikować jako pochlebne, były zamieszczane przede wszystkim w trzech językach: chińskim, angielskim oraz urdu (oficjalny język w Pakistanie oraz jeden z indyjskich języków urzędowych).
W czym pomagał Chat?
Co ciekawe, w niektórych przypadkach Chiny postanowiły grać do dwóch bramek równolegle. W ramach operacji, którą OpenAI określiło mianem "Sneer Review", w sieci lądowały zarówno komentarze krytykujące rozwiązanie amerykańskiej Agencji Rozwoju Międzynarodowego, jak i te wychwalające takie posunięcie. Raczej łatwo się domyślić, że zagrywka ta miała na celu pogłębienie polaryzacji społeczeństwa Stanów Zjednoczonych i zmuszenie go do dalszych przepychanek oraz kłótni.
Kolejnym przykładem działań uwzględniających treści wygenerowane przez ChatGPT była akcja, w ramach której Chińczycy podszywali się pod dziennikarzy i analityków geopolitycznych. Technologia OpenAI pomogła im wygenerować realistycznie brzmiące biografie oraz opisy fikcyjnych kont, jak również tłumaczyć wysyłaną korespondencję z chińskiego na angielski.
Warto zwrócić uwagę na sam zakres i różnorodność taktyk i platform, z których korzystają te operacje, wszystkie razem wzięte. Ogólnie rzecz biorąc, nie zauważyliśmy, aby operacje te zwiększały zaangażowanie ze względu na wykorzystanie sztucznej inteligencji. W przypadku tych operacji lepsze narzędzia niekoniecznie oznaczają lepsze wyniki.
Oczywiście Chiny to nie jedyne państwo, w którym OpenAI udało się wykryć podobne działania. Na niechlubnej liście znalazły się także m.in. Rosja, Iran, Kambodża, Filipiny, a nawet Korea Północna.
Jakub Dmuchowski, dziennikarz pcformat.pl