AktualnościAI wspiera chińską cenzurę. Wyciek bazy danych przedstawia tematy niewygodne dla rządu Państwa Środka

AI wspiera chińską cenzurę. Wyciek bazy danych przedstawia tematy niewygodne dla rządu Państwa Środka

I tak już potężna oraz praktycznie wszechobecna machina chińskiej cenzury jeszcze bardziej korzysta na rozwoju sztucznej inteligencji.

Chiny
Chiny
Źródło zdjęć: © Adobe Stock
Jakub Dmuchowski

Serwisowi TechCrunch udało się rzucić okiem na bazę danych, która jasno wskazuje na to, że chiński rząd wykorzystuje zaawansowane modele sztucznej inteligencji do przeczesywania sieci w poszukiwaniu informacji uznawanych za "nieprawdziwe" (czyli niewygodne dla Komunistycznej Partii Chin) i ich cenzurowania.

Chińska cenzura wzbogacona o AI

Jak napisała redakcja wspomnianego w poprzednim akapicie portalu, specjalistyczny duży model językowy został nakarmiony ok. 133 000 przykładami niepożądanych informacji, a zadaniem AI jest znajdowanie ich w Internecie i automatyczne oznaczanie. Tyczy się to zarówno doniesień na temat korupcji w szeregach władzy, kontrowersyjnych działań służb bezpieczeństwa, jak i biedy panującej na chińskiej prowincji. W skrócie – Chińczycy mogą mówić na temat swojego państwa albo dobrze, albo wcale, więc na brak wyboru nie mają co narzekać.

Xiao Qiang, zajmujący się chińską cenzurą naukowiec z UC Berkeley, w rozmowie z TechCrunch przekazał, że pozostająca u władzy w Państwie Środka Komunistyczna Partia Chin oraz związane z nią podmioty chcą wykorzystać sztuczną inteligencję do wywoływania jeszcze większych nacisków na społeczeństwo, a wyciekła baza danych jest na to niezbitym dowodem.

W przeciwieństwie do tradycyjnych mechanizmów cenzury, które polegają na ludzkiej pracy przy filtrowaniu opartym na słowach kluczowych i ręcznym przeglądzie, LLM przeszkolony w zakresie takich instrukcji znacznie poprawiłby wydajność i szczegółowość kontroli informacji prowadzonej przez państwo.

Xiao QiangNaukowiec z UC Berkeley w rozmowie z serwisem TechCrunch

Do zestawu danych udało się dostać badaczowi bezpieczeństwa znanemu jako NetAskari. Znalazł go w niezabezpieczonej bazie Elasticsearch hostowanej na serwerze Baidu, niemniej ten fakt nie wskazuje jasno na właściciela plików, jako że z usług rzeczonego dostawcy korzysta multum firm. Nie wiadomo także, kto jest autorem napomkniętego zestawu danych, aczkolwiek daty dodawanych do niego wpisów wskazują na to, że jest on dość świeży i pochodzi z grudnia ubiegłego roku.

Wśród 133 tys. przykładów zawartych w bazie danych znajdują się przede wszystkim zagadnienia zdatne do wywołania niepokojów społecznych, takich jak doniesienia jednego z właścicieli firm, który narzeka na skorumpowaną policję wymuszająca pieniądze od lokalnych przedsiębiorców. Sporo uwagi poświęcono również Tajwanowi, a jego odpowiednik w języku chińskim (台湾) przewija się w wytycznych dla AI przeszło 15 000 razy.

Mimo że wszystko wskazuje na to, że chińskie władze wykorzystują sztuczną inteligencję jako narzędzie cenzury i represji wymierzone we własnych obywateli, tak rząd w Pekinie twierdzi, że jest oburzony takimi twierdzeniami i nic takiego nie ma miejsca. Chińska ambasada w Stanach Zjednoczonych wystosowała nawet oświadczenie, w którym zarzuty określa mianem "bezpodstawnych ataków i oszczerstw przeciwko Chinom" i podkreśla, że podejście Chin co do AI pozostaje niezmienne od 2023 roku.

Zakłada ono rozwój technologii skoncentrowanej na ludziach (co w zasadzie idzie w parze z wykorzystywaniem jej do cenzurowania udostępnianych przez Chińczyków treści), dbanie o prywatność, unikanie uprzedzeń oraz wszelkich przejawów dyskryminacji ze względu na pochodzenie etniczne, przekonania, narodowość, płeć i tym podobne. Co najważniejsze, Państwo Środka jest zdania, że "etyka powinna stać na pierwszym miejscu" w kontekście rozwoju sztucznej inteligencji. Z pełną treścią oświadczenia możemy zapoznać się w tym miejscu.

Wybrane dla Ciebie