TikTok został wręcz zalany rasistowskimi treściami. Google miało w tym swój udział
Opracowane przez Google narzędzie Veo 3 służące do generowania materiałów wideo jest rutynowo wykorzystywane do tworzenia rasistowskich klipów, które później trafiają na TikToka i wykręcają milionowe zasięgi, trafiając do wielu młodych odbiorców.
Google Veo 3 bez wątpienia podniosło poprzeczkę dla wszystkich modeli AI zajmujących się generowaniem materiałów wideo. Opublikowane pod koniec maja narzędzie jest w stanie stworzyć klipy wiernie odwzorowujące nawet najdrobniejsze szczegóły, a do tego, co jest nowością w takiej technologii, wzbogacone o podkład dźwiękowy. Jak to jednak zwykle bywa w takich przypadkach, Veo 3 posłużyło zarówno do stworzenia wielu wartościowych treści, jak i tych, których nazwanie kontrowersyjnymi można uznać za spore niedopowiedzenie.
TikTok został zalany generowanymi przez AI rasistowskimi treściami
Mimo że wszystkie tworzone z pomocą narzędzia Google filmiki są opatrzone stosownym znakiem wodnym informującym o ich pochodzeniu, a sama korporacja zabrania stosowania swojego dzieła do nieprzyzwoitych przedsięwzięć, wielu użytkowników, cóż, ma to w poważaniu. Co więcej, obejście filtrów bezpieczeństwa Veo 3 nie okazało się trudnym zadaniem – przynajmniej w kontekście generowania materiałów naśmiewających się z osób innej rasy lub narodowości.
Jak podaje serwis Media Matters for Amercia, w ostatnim czasie na TikToku odnotowano niepokojący wzrost rasistowskich materiałów, za których stworzenie, w przeważającej większości, odpowiada właśnie AI ze stajni Google'a. 8-sekundowe klipy (to maksymalna długość wideo, jakie jest obecnie w stanie sklecić Veo 3) opatrzone znakiem wodnym narzędzia giganta z Mountain View naśmiewają się z osób czarnoskórych, Hindusów, Żydów, a nawet ofiar nazistów. Co najgorsze, treści takie mogą pochwalić się idącymi w setki tysięcy, a w skrajnych przypadkach nawet w miliony, zasięgami.
Redakcja wspomnianego serwisu przygotowała kompilację przykładowych materiałów, o których była mowa w poprzednim akapicie. Zapoznać się z nią możemy poniżej:
Dalsza część artykułu pod materiałem wideo
Racist AI Videos Are Going Viral On TikTok
Filmy odwołują się do stereotypów rasowych, takich jak choćby zamiłowanie czarnoskórych do arbuzów i skrzydełek kurczaka z KFC lub awersja Hindusów do dbania o higienę. Oglądając załączone powyżej wideo, możemy zobaczyć m.in. grupę ortodoksyjnych Żydów goniących spadającą monetę, rodowitego mieszkańca Indii uciekającego przed mydłem i prysznicem, a także "typowych sprawców" przedstawionych jako szympansy noszące złote łańcuchy i uciekające z miejsca zbrodni. Warto przy tym zaznaczyć, że ogrom takich materiałów kierowany jest do Amerykanów, co można wywnioskować na podstawie ich opisów i tytułów. Jeden z filmików, nazwany "Typowy Waffle House w Atlancie" prezentuje grupę robiących rozgardiasz w lokalu małp trzymających kubełki z KFC z arbuzami w środku.
Oczywiście nawet jeśli stereotypy nie zostały przedstawione w bezpośredni sposób, to nie oszukujmy się – większość z użytkowników platformy jest w stanie dostrzec analogie. Pod klipami wręcz roi się od komentarzy w stylu "AI dotarło tu 5 minut temu i już cierpi z powodu black fatigue", które zgarniają po kilka tysięcy polubień.
Co ciekawe, w teorii zasady TikToka nie pozwalają na udostępnianie na łamach serwisu treści dehumanizujących poszczególne grupy etniczne lub rasowe. Jak jest w praktyce, udowodniły powyższe przykłady.
Jakub Dmuchowski, dziennikarz pcformat.pl