AI tworzy wirusy. Badania wskazują na to, że efekty jej pracy są pożałowania godne
Google postanowiło poddać analizie próbki 5 złośliwych programów wygenerowanych z pomocą sztucznej inteligencji. Jak się okazało, malware spod dłuta AI było łatwowykrywalne, a dodatkowo cechowało się niższą skutecznością niż wirusy, za których stworzenie odpowiadali ludzie.
Czy sztuczna inteligencja jest w stanie wygenerować na życzenie użytkownika złośliwy kod? Tak, aczkolwiek jest jedno "ale", a mianowicie – efekty jej pracy nie należą do najbardziej górnolotnych. Taki wniosek płynie z badania przeprowadzonego przez Google Threat Intelligence Group, które to zostało opisane na łamach Ars Technica. Okazało się, że coraz popularniejszy vibe coding nie sprawdza się zbyt dobrze podczas pisania wirusów, a największe zagrożenie nadal stanowi malware autorstwa człowieka.
AI nie umie wygenerować skutecznego wirusa
Jak zostało wspomniane we wstępie, Google postanowiło ocenić skuteczność 5 próbek złośliwego oprogramowania sporządzonego przez AI. Wirusy te otrzymały nazwy PromptLock, PromptFlux, PromptSteal, FruitShell oraz QuietVault. Wykrycie każdego z nich nie było wymagającym zadaniem i nawet mało zaawansowane zabezpieczenia poradziły sobie z niechcianymi gośćmi. Co więcej, jak to bywa w przypadku "twórczości" sztucznej inteligencji, tak i ten kod nie był w żaden sposób rewolucyjny i opierał się na dobrze znanych metodach. Podkreślono również, iż żadne ze wspomnianych malware nie wyrządziło znacznej szkody za zainfekowanym komputerze, co dowodzi ich niskiej skuteczności.
Google Threat Intelligence Group podkreśliło, że choć rozwiązania pokroju PromptSteal lub QuietVault nie mogą poszczycić się efektywnym działaniem, tak stanowią żywy dowód na to, że złośliwe oprogramowanie jest w stanie się rozwinąć za pośrednictwem sztucznej technologii. Biorąc pod uwagę tempo, z jakim galopuje technologia, być może w przeciągu kilku najbliższych lat wygenerowane przez AI malware będzie mogło konkurować z tym, które wyszło spod myszek i klawiatur najlepszych programistów.
Po raz pierwszy GTIG zidentyfikowało rodziny złośliwego oprogramowania, takie jak PROMPTFLUX i PROMPTSTEAL, które podczas działania wykorzystują duże modele językowe (LLM). Narzędzia te dynamicznie generują złośliwe skrypty, zaciemniają swój kod, aby uniknąć wykrycia, i wykorzystują modele sztucznej inteligencji do tworzenia złośliwych funkcji na żądanie, zamiast na stałe zakodowywać je w złośliwym oprogramowaniu. Chociaż jest to wciąż nowość, stanowi to znaczący krok w kierunku bardziej autonomicznego i adaptacyjnego złośliwego oprogramowania.
Nie brak jednak opinii, że AI od początku nie radziło sobie z pisaniem złośliwego kodu, a ostatnie trzy lata przyniosły minimalną poprawę w tej kwestii. Jak przekazał niezależny badacz Kevin Beaumont w rozmowie z Ars Technicą:
To pokazuje nam, że po ponad trzech latach szaleństwa związanego z generatywną sztuczną inteligencją rozwój zagrożeń przebiega niezwykle powoli. Gdybyś płacił za to twórcom złośliwego oprogramowania, domagałbyś się zwrotu pieniędzy, ponieważ nie stanowi to wiarygodnego zagrożenia ani kroku w kierunku wiarygodnego zagrożenia.
Jak więc widać, na ten moment szansa na to, że sztuczna inteligencja wyprodukuje niezwykle wysublimowanego wirusa, który sforsuje wszelkie zabezpieczenia, jest bliska zeru. Nie oznacza to jednak, iż taka pozostanie na zawsze, acz na razie przeciwnicy vibe codingu mogą wznieść toast za niepodważalne potwierdzenie, że takie podejście do programowania nie jest w stanie dostarczyć solidnych rezultatów.
Jakub Dmuchowski, redaktor pcformat.pl