AktualnościFBI: Boty podszywają się pod urzędników. Deepfake audio nowym, realnym zagrożeniem

FBI: Boty podszywają się pod urzędników. Deepfake audio nowym, realnym zagrożeniem

Grupa cyberprzestępców wykorzystuje sztuczną inteligencję do naśladowania głosów wysoko postawionych amerykańskich oficjeli, aby z ich pomocą siać zamęt wśród urzędników niższego szczebla.

Sztuczna inteligencja
Sztuczna inteligencja
Źródło zdjęć: © Pexels

Jak podaje serwis CNBC, celem ataków z wykorzystaniem spreparowanych głosów są przedstawiciele rządu, a więc jeśli któryś z nich da się nabrać i w wyniku oszustwa udostępni poufne dane, skutki takiego wydarzenia mogą być niezwykle poważne.

FBI przestrzega przed przestępcami podającymi się za członków rządu USA

Wczoraj, czyli 15 maja, FBI wydało oficjalne oświadczenie w tej sprawie. Jak się okazuje, geneza tego procederu sięga jeszcze kwietnia, a przestępcy korzystający z AI próbują naciągać zarówno urzędników federalnych (w tym tych wysokich rangą oraz już emerytowanych), jak i ich kontakty. Agencja poprosiła, aby automatycznie nie zakładać, że każda wiadomość otrzymana od rzekomego wysoko postawionego przedstawiciela rządu w rzeczywistości pochodzi od takiej osoby.

Wedle tego, co możemy przeczytać we wspomnianym oświadczeniu, osoby o niecnych zamiarach rozsyłali wiadomości tekstowe oraz głosowe generowane przez sztuczną inteligencję, czyli korzystały z technik znanych jako, odpowiednio, smishing i vishing. Co ciekawe, cyberprzestępcy nie próbowali od razu nakłonić swoje ofiary do udostępnienia wrażliwych danych, zamiast tego starali się nawiązać z nimi relację, aby uwiarygodnić potencjalną prośbę (lub polecenie) w przyszłości.

Zdarzało się, że dochodziło również do kradzieży danych dostępu do konta osobistego nieuważnego użytkownika, który klikał w łącze nadesłane przez hakerów. Ci zaś, podszywający się pod polityka lub urzędnika, do wejścia w interakcję z linkiem celem przejścia na oddzielną platformę komunikacyjną i kontynuowanie rozmowy za jej pośrednictwem. Pozyskane w wyniku tego schematu dane były wykorzystywane do typowania kolejnych ofiar spośród pracowników państwowych i ich kontaktów. Federalne Biuro Śledcze zaznaczyło również, że uzyskane w toku tego procesu informacje mogą równie dobrze posłużyć do podszywania się pod dane osoby z zamiarem wyłudzenia funduszy lub kolejnych danych.

FBI nie tyle zachęca, ile wręcz nalega, aby osoby związane z rządem federalnym podjęły odpowiednie kroki i zabezpieczył się przed takimi próbami naciągania. Podkreślono, że niezwykle istotna jest weryfikacja osoby, która próbuje z nami nawiązać kontakt – nawet jeśli podaje się za prominentną figurę w rządzie. Zarówno numer telefonu, jak i adres e-mail, powinniśmy prześledzić w poszukiwaniu potencjalnych nieprawidłowości. Przestępcy nad wyraz często stosują także publicznie dostępne zdjęcia, ewentualnie stosują drobne zmiany w imionach oraz danych kontaktowych.

Podobnie jak w tym przypadku, hakerzy często podszywają się również pod znane osoby, stosując głosy generowane za pośrednictwem sztucznej inteligencji. W związku z tym powinniśmy uważnie wsłuchiwać się w ton głosu rozmówcy i dawać baczenie na dobór wypowiadanych przez niego słów, aby określić, czy mamy do czynienia z człowiekiem z krwi i kości, czy też jedynie imitującym go botem.

Więcej szczegółowych informacji nt. technik obrony przed spoofingiem i phishingiem znajdziemy na poświęconej tym zjawiskom stronie FBI. Służby sugerują również, że przydatne informacje w kontekście obrony przed próbami wyłudzenia z wykorzystaniem AI i deepfake'ów znajdziemy we wpisie "Criminals Use Generative Artificial Intelligence to Facilitate Financial Fraud" (pol. Przestępcy wykorzystują generatywną sztuczną inteligencję do ułatwiania oszustw finansowych).

Wybrane dla Ciebie