AktualnościChińczycy wykorzystują ChataGPT do "niecnych celów". OpenAI o rosnącym zagrożeniu

Chińczycy wykorzystują ChataGPT do "niecnych celów". OpenAI o rosnącym zagrożeniu

Zdaniem przedsiębiorstwa, liczba pochodzących z Chin ugrupowań korzystających z popularnego czatbota do generowania złośliwych lub propagandowych treści stale rośnie, ale ich działania na szczęście nie są zakrojone na szeroką skalę.

ChatGPT
ChatGPT
Źródło zdjęć: © Pexels

Wedle doniesień serwisu NPR, Chińczycy coraz częściej uciekają się do skorzystania z pomocy ChataGPT celem generowania treści postów i komentarzy zamieszczanych w mediach społecznościowych. Co ciekawe, osoby wykorzystujące w ten sposób narzędzie, nader często tworzą z jego pomocą także raporty nt. swoich poczynań, które następnie przedkładają pracodawcom.

Chińczycy generują złośliwe treści z pomocą ChataGPT

OpenAI przekazało, że na przestrzeni ostatnich trzech miesięcy wykryło i zakłóciło dziesięć operacji związanych z wykorzystaniem czatbota firmy w nieprzyzwoity sposób. Nie sprecyzowano przy tym, do czego dokładnie posłużył ChatGPT w każdym z tych przypadków, acz jasno dano do zrozumienia, że nie do takich celów został on stworzony. Konta osób biorących udział w tym procederze zostały zablokowane, a prawie połowa z nich (bo 4 z 10) pochodziła z Chin.

Ben Nimmo, główny badacz w zespole ds. wywiadu i dochodzeń OpenAI, przekazał, że to właśnie Chińczycy są coraz częściej przyłapywani na gorącym uczynku i "prowadzeniu rosnącej liczby tajnych operacji, w których stosuje się coraz więcej zróżnicowanych taktyk".

Ofiarą spamu generowanego przez ChatGPT na zlecenie obywateli Państwa Środka padały nie tylko obce mocarstwa i politycy, ale nawet gry komputerowe, a dokładniej – stworzona przez tajwańskie studio strategia, w której zadaniem gracza jest walka z siłami Komunistycznej Partii Chin. Nimmo poinformował, że działania prowadzone przez Chiny wykraczają poza pojedyncze platformy i łączą w sobie elementy operacji wpływu, nadzoru i inżynierii społecznej.

Wypociny czatbota, godzące m.in. we wspomnianą grę lub Donalda Trumpa i nałożone przez niego cła, można było znaleźć w różnych zakątkach Internetu, m.in. na X-ie, Facebooku, TikToku oraz Reddicie. Treści, które trudno było sklasyfikować jako pochlebne, były zamieszczane przede wszystkim w trzech językach: chińskim, angielskim oraz urdu (oficjalny język w Pakistanie oraz jeden z indyjskich języków urzędowych).

W czym pomagał Chat?

Co ciekawe, w niektórych przypadkach Chiny postanowiły grać do dwóch bramek równolegle. W ramach operacji, którą OpenAI określiło mianem "Sneer Review", w sieci lądowały zarówno komentarze krytykujące rozwiązanie amerykańskiej Agencji Rozwoju Międzynarodowego, jak i te wychwalające takie posunięcie. Raczej łatwo się domyślić, że zagrywka ta miała na celu pogłębienie polaryzacji społeczeństwa Stanów Zjednoczonych i zmuszenie go do dalszych przepychanek oraz kłótni.

Kolejnym przykładem działań uwzględniających treści wygenerowane przez ChatGPT była akcja, w ramach której Chińczycy podszywali się pod dziennikarzy i analityków geopolitycznych. Technologia OpenAI pomogła im wygenerować realistycznie brzmiące biografie oraz opisy fikcyjnych kont, jak również tłumaczyć wysyłaną korespondencję z chińskiego na angielski.

Warto zwrócić uwagę na sam zakres i różnorodność taktyk i platform, z których korzystają te operacje, wszystkie razem wzięte. Ogólnie rzecz biorąc, nie zauważyliśmy, aby operacje te zwiększały zaangażowanie ze względu na wykorzystanie sztucznej inteligencji. W przypadku tych operacji lepsze narzędzia niekoniecznie oznaczają lepsze wyniki.

Ben NimmoGłówny badacz w zespole ds. wywiadu i dochodzeń OpenAI

Oczywiście Chiny to nie jedyne państwo, w którym OpenAI udało się wykryć podobne działania. Na niechlubnej liście znalazły się także m.in. Rosja, Iran, Kambodża, Filipiny, a nawet Korea Północna.

Jakub Dmuchowski, dziennikarz pcformat.pl

Wybrane dla Ciebie