Google Threat Intelligence Group (GTIG) opublikowało raport, z którego jasno wynika, że sztuczna inteligencja stała się jednym z najważniejszych narzędzi w arsenałach cybeprzestępców. Po pomoc AI uciekają się przede wszystkim grupy hakerów posiadające powiązania z rządami, a wykorzystanie algorytmów pozwala podnieść produktywność w zakresie „rozpoznania, inżynierii społecznej i tworzenia złośliwego oprogramowania”.

To, że oparte na sztucznej inteligencji narzędzia mogą zostać wykorzystane w niecnych celach, raczej nie powinno stanowić dla nikogo zaskoczenia. Świeży raport przygotowany przez Google Threat Intelligence Group (GTIG), działający w obrębie giganta z Mountain View oddział specjalistów ds. cyberbezpieczeństwa, potwierdza tę tezę, a przy okazji ukazuje, w jaki dokładnie sposób przestępcy oraz wspierani przez rządy hakerzy posługują się zaawansowanymi algorytmami. Co więcej, z potencjalnym zagrożeniem muszą liczyć się nie tylko standardowi użytkownicy, ale i korporacje, których sekrety, szczególnie te dotyczące działania poszczególnych modeli AI, są nadzwyczaj cennym łupem.
Jak wynika z omawianego tekstu, po pomoc ze strony dużych modeli językowych sięgają przede wszystkim grupy cyberprzestępców wspierane przez rządy. Wykorzystują one AI do prowadzenia badań technicznych, określania celów ataków, a nawet do generowania przekonujących przynęt wykorzystywanych podczas prób phishingu. Wedle GTIG, działania takie charakteryzują hakerów z Rosji, Iranu, Chin oraz Korei Północnej, a wzrost użycia narzędzi bazujących na sztucznej inteligencji jest zauważalny już od dłuższego czasu. Mimo wszystko Google nie zauważyło, aby technologia ta doprowadziła do „osiągnięcia przełomowych możliwości, które zasadniczo zmieniłyby krajobraz zagrożeń”.
W raporcie wyszczególniono kilka typów ataków, które odbywają się z udziałem AI. Pierwszym z nich jest ekstrakcja modeli, polegająca na nakłonieniu sztucznej inteligencji do zdradzenia sekretów stojących za napędzającą ją technologią. Celem takich działań padają przede wszystkim rozumujące duże modele językowe, jako że wiele podmiotów, w tym rządy oraz konkurenci, pragną poznać odpowiedzialne za ich działanie mechanizmy oraz zastrzeżoną logikę.
Z perspektywy użytkownika komputera najważniejszą informacją jest zaś to, iż hakerzy eksperymentują ze sztuczną inteligencją do produkcji złośliwego oprogramowania. Nowe rodziny malware, takie jak HONESTCUE, wykorzystują interfejs API m.in. Gemini od Google celem wygenerowania kodu służącego do pobierania oraz uruchamiania na maszynach bardziej inwazyjnych wirusów. Narzędzia pokroju wspomnianego Gemini znajdują także zastosowanie w procesie analizy luk w zabezpieczeniach oraz testowaniu podatności.
Nie zabrakło również wzmianki na temat tworzenia agentów AI zdolnych do samodzielnej pracy nad złośliwym kodem i narzędziami. Biorąc pod uwagę, że te samodzielne boty mają tendencję do posiadania dość kruchego ego, ich udział w przestępczym procederze nie jest na ten moment jeszcze zbyt istotny.
Podsumowując – sztuczna inteligencja nie sprowadza się jedynie do roli wirtualnych pomocników, gotowych odpowiadać na wszystkie nasze pytania. W niewłaściwych rękach technologia ta jest w stanie wyrządzić wiele złego i choć jeszcze nie zaobserwowano, aby dokonała ona jakiegokolwiek przełomu w kontekście cyfrowych zabezpieczeń (a raczej ich łamania), Google Threat Intelligence Group nieustannie monitoruje sytuację.
0 komentarzy