AktualnościBoty AI zdominowały ruch w sieci. Działania sztucznej inteligencji przypominają ataki DDoS

Boty AI zdominowały ruch w sieci. Działania sztucznej inteligencji przypominają ataki DDoS

Sztuczna inteligencja przeciąża systemy i uniemożliwia korzystanie z serwisów normalnym użytkownikom, przez co cierpią zarówno oni, jak i dostawcy treści, którzy stali się pożywką dla gigantów technologicznych.

Crawlery AI zdominowały ruch sieciowy
Crawlery AI zdominowały ruch sieciowy
Źródło zdjęć: © Adobe Stock

Hordy przeczesujących sieć botów AI wysyłanych przez gigantów technologicznych stały się zmorą mniejszych firm oraz organizacji non-profit, które nie są w stanie sobie pozwolić na wydajne serwery. W Internecie pojawia się coraz więcej skarg na to, że crawlery blokują dostęp do stron, a nierzadko dostają się na nie w szemrany sposób, ochodząc nakładane przez developerów blokady i ograniczenia.

Coraz więcej botów w sieci

Crawlery, czyli programy zbierające informacje o stronach i znajdujących się na nich treściach, coraz śmielej poczynają sobie w sieci. W związku z tym stały się solą w oku wielu osób, a twórcy treści starają się jak mogą blokować botom dostęp do swoich materiałów. Koniec końców na niewiele się to zdaje, jako że oprogramowanie celowo obchodzi wszelkie zapory, w poważaniu ma dyrektywy zawarte w pliku robots.txt, a nawet regularnie zmienia adresy IP, aby nie dać się przyłapać na gorącym uczynku.

Jedną z osób, która toczy nieuczciwą walkę z botami, w tym przypadku należącymi do Amazona, jest kanadyjski developer kryjący się pod pseudonimem Xe Iaso. Wedle słów napisanych na jego blogu, Xe padł ofiarą zmasowanego ataku ze strony crawlerów amerykańskiej korporacji, które zaczęły szperać w należącym do Kanadyjczyka serwerze git, tym samym utrudniając korzystanie z niego standardowym użytkownikom, wliczając w to właściciela.

Nie chcę zamykać mojego serwera Git dla publiczności, ale zrobię to, jeśli będę musiał. Blokowanie botów indeksujących AI jest daremne, ponieważ kłamią, zmieniają agenta użytkownika, używają domowych adresów IP jako serwerów proxy i nie tylko. Chcę tylko, aby wysyłane przez nie żądania ustały.

Xe Iaso

Wedle dostępnych informacji, Xe próbował już wielu sposobów na pozbycie się nieproszonych gości – od modyfikacji pliku robot.txt poprzez dodanie odpowiednich linijek tekstu, przez wzbogacenie konfiguracji ingresu o dodatkowy kod, aż po upchnięcie całego serwera za VPN. Koniec końców Xe Iaso napisał niewielkie proxy pełniące funkcję "bramkarza" przed wejściem na serwer. Twór został nazwany Anubis, niemniej jego skuteczność wciąż jest sprawdzana. Ostatnie informacje na jego temat pochodzą z 20 marca, a jeśli chcecie zapoznać się z projektem, możecie odwiedzić jego repozytorium na Githubie.

Oczywiście Xe Iaso nie jest jedynym developerem, któremu crawlery zaczęły uprzykrzać życie. Wedle raportu opublikowanego przez serwis The LibreNews, w przypadku niektórych otwartoźródłowych projektów aż 97% ruchu generowane jest przez boty będące własnością firm zajmujących się sztuczną inteligencją. Tak duże obciążenie serwerów wiąże się z problemami z dostępnością z usługi, w związku z czym osoby zainteresowane poczynaniami developerów nie mogą się z nimi zapoznać, jako że serwer zajęty jest odpowiadaniem na zapytania wysyłane przez korporacyjne oprogramowanie grzebiące w sieci.

Problemy z botami zgłaszali m.in. Drew DeVault z SourceHut, KDE GitLab, Kevin Fenzi i Fedora Pagure, Dennis Schubert z Diaspora, a nawet Martin Owens pracujący nad popularnym programem do grafiki wektorowej Inkscape. Oczywiście jest to wierzchołek góry lodowej, niemniej mniejsi developerzy zaczęli otwarcie mówić o tym, że crawlery AI dużych firm utrudniają im życie.

Wybrane dla Ciebie