TechnologieTrzecia era wojen

    Trzecia era wojen

    Stoimy na krawędzi wprowadzenia do arsenału najgroźniejszej broni od czasu wynalezienia bomby atomowej. Autonomiczne roboty bojowe nie tylko zmienią sposób prowadzenia wojen, ale i stanowią zagrożenie dla istnienia ludzkiej cywilizacji.

    Trzecia era wojen

    Roboty, które będą samodzielnie decydowały o użyciu broni, zmienią kształt wojen, ale także łatwo mogą wymknąć się spod kontroli. Ich popularyzacja rozpocznie trzecią erę wojen, a eksperci ostrzegają, że dopuszczenie do produkcji i użycia systemów broni autonomicznej może mieć bardziej zgubne skutki niż wojna nuklearna. W działania mające zdelegalizować roboty bojowe są zaangażowane liczne instytucje i osoby, m.in. Elon Musk. Czy jednak nie jest już za późno na zakazy?

    Roboty-zabójcy są wśród nas

    Zabójcza broń autonomiczna (LAW – ang. Lethal Autonomous Weapon) to nie przyszłość, ale teraźniejszość. Do systemów samodzielnie lokalizujących cel i podejmujących decyzję o otwarciu ognia należy np. Phallanx CIWS, od lat 70. XX wieku broniący okrętów wojennych USA przed nadlatującymi pociskami, ale także zbliżającymi się łodziami. Na granicach Izraela, a także w tzw. Strefie Zdemilitaryzowanej między Koreą Północną i Południową, pełnią służbę wieżyczki strażnicze takie jak Samsung SGR-A1, które potrafią wykryć, zidentyfikować i ostrzelać intruza. Część z nich działa zupełnie automatycznie, część wymaga, aby to człowiek podjął decyzję o otwarciu ognia. A przynajmniej tak są obecnie skonfigurowane, bo praktycznie wszystkie tego typu systemy mogą działać bez ludzkiego nadzoru.

    Człowiek w pętli czy nad pętlą

    Większość stosowanych i rozwijanych dzisiaj systemów, w tym polski Nadzorowany System Ochrony Obszaru firmy Belma, działają w systemie pracy nadzorowanej (ang. Man-in-the-loop, czyli dosłownie „człowiek w pętli decyzyjnej”). Oznacza to, że decyzję o otwarciu ognia podejmuje operator, a nie algorytm. Nie ma jednak technicznych przeszkód, aby wyeliminować element ludzki, a właściwie przesunąć go do nadzoru. W systemie Man-on-the-loop („człowiek nad pętlą decyzyjną”) broń działa całkiem sama, a operator ma możliwość wstrzymania lub przerwania ataku.

    Obecność człowieka jest potrzebna ze względów prawno-etycznych, a nie technicznych, więc łatwo wyeliminować go z procesu decyzyjnego lub ograniczyć jego rolę do nadzoru. Da się to zrobić choćby jutro, jeśli tylko… zignoruje się konsekwencje prawne takiego kroku.

    Obraz

    Wszystkie obecnie istniejące systemy broni mogą być łatwo kontrolowane przez człowieka, bo albo są stacjonarne, albo – jak drony – wymagają stałej łączności z operatorem. W opracowaniu są jednak roboty, w przypadku których taki nadzór nie będzie możliwy.

    Bitwy bez człowieka

    Manewrowość samolotów bojowych dzisiaj ogranicza nie technologia, tylko zdolność pilotów do znoszenia dużych przeciążeń. Pod względem szybkości reakcji, a zwłaszcza zdolności do analizy dużych ilości danych, jakie dostępne są na współczesnym polu bitwy, człowiek już dawno pozostał w tyle za komputerami. Do tego maszyny mają jeszcze jedną zaletę: nikt nie będzie po nich płakał. Strata sprzętu nie niesie takiego ciężaru politycznego jak śmierć żołnierza, więc wojny można prowadzić łatwiej. Tylko czy łatwiejsze i tańsze wojny to naprawdę postęp?

    Kto tu dowodzi?

    Obraz

    Barierę w rozwoju autonomicznych broni stanowi dzisiaj prawo i etyka. Zasady prowadzenia wojen podlegają regułom zebranym m.in. w konwencjach haskich i genewskich. Ich złamanie to zbrodnia wojenna, za którą odpowiedzialni mogą być sądzeni nawet wiele lat po zakończeniu konfliktu. I tu pojawia się problem z autonomicznymi maszynami bojowymi: kto ponosi odpowiedzialność za ich działanie? Stawianie robota przed sądem oczywiście nie ma sensu, więc czy za decyzje maszyny powinien ponieść odpowiedzialność dowódca, który je „spuścił ze smyczy”? A może producent robotów bojowych? Albo programiści, którzy opracowali algorytmy rozpoznawania dozwolonych celów?

    Zabójcy za dolara

    Kwestie prawno-etyczne to nie jedyna przeszkoda powstrzymująca na razie produkcję broni całkowicie autonomicznej. Jeszcze istotniejszym zagadnieniem jest zachowanie kontroli nad produkcją i dystrybucją, a to już jest problem naprawdę poważny. Wystarczy przestać wyobrażać sobie broń przyszłości w formie wielkich bezzałogowych bombowców, jak MQ-9 Reaper, czy nawet znacznie mniejszej tzw. amunicji krążącej, np. czterokilogramowego polskiego Warmate’a. To wszystko urządzenia duże, skomplikowane w produkcji i kosztowne. Miniaturyzacja pozwala jednak zredukować wielkość jednego egzemplarza do postaci malutkiego, mieszczącego się w dłoni drona, którego główną zaletą będą niskie koszty masowej produkcji. Wystarczy jeszcze dodać kilka gramów ładunku wybuchowego, a sztucznej inteligencji podać parametry celu i już można dokonać zabójstwa wybranej osoby lub tysiącami takich maszynek zaatakować przeciwnika. Wypuszczona chmura takich latawców będzie atakowała tylko ludzi noszących mundury wrogiej armii. Albo wszystkich uzbrojonych. Albo wszystkich mężczyzn. Albo wszystkich o wzroście powyżej 1,5 metra. Wystarczy zaprogramować odpowiednie parametry celu.

    Miniaturowe latające bomby to nie fantastyka, ale jeden z projektów opracowywanych co najmniej od 2013 roku przez DARPA (Defense Advanced Research Projects Agency – amerykańską agencję zajmującą się wykorzystaniem nowych technologii do celów wojskowych). W przyszłym roku mają zostać przeprowadzone pierwsze polowe testy zrzucania setek takich mikrodronów z autonomicznych dronów średniego zasięgu, noszących kodową nazwę Gremlin.

    Groźne jak broń atomowa, dostępne jak gwoździe

    Broń atomowa, choć przerażająca, ma jedna zaletę – jest trudna w produkcji. Prawie wiek po projekcie Manhattan liczba państw, które dysponują własnym arsenałem jądrowym, nadal jest stosunkowo niewielka. Skutecznie udało się powstrzymać rozprzestrzenianie bomb A i nigdy nie wpadły one w ręce grup terrorystycznych czy ruchów partyzanckich. Z autonomicznymi robotami nie będzie tak dobrze, bo kluczowy element – sztuczna inteligencja – jest już dziś łatwo dostępny dla każdego. Takie komponenty jak oprogramowanie sterujące lotem drona, nawigacja, optyczne rozpoznawanie osób są dostępne w formie otwartych projektów, względnie łatwych w modyfikacji pod kątem zastosowań militarnych. Mechaniczne części dronów – silniczki, zasilanie, elektronika sterująca – to nie trudno dostępny uran czy wymagający skomplikowanej i kosztownej obróbki pluton. Jest bardzo wątpliwe, aby udało się ograniczyć produkcję i użycie broni autonomicznej. Obawy nie są bezpodstawne – w październiku 2016 podczas walk o iracki Irbil popularny hobbystyczny dron DJI Phantom III został uzbrojony w ładunek wybuchowy i wykorzystany przez ISIS do ataku na siły kurdyjskie. W efekcie zginęło dwóch kurdyjskich bojowników, a dwóch francuskich żołnierzy zostało rannych.

    Zatrzymać to szaleństwo!

    Obraz

    Wielkie drony latające samodzielnie, ale odpalające rakiety tylko pod nadzorem operatora – takie jak Predator – to jedno, a w pełni autonomiczne roboty bojowe to zupełnie coś innego. O czyimś życiu i śmierci nie będzie już decydował przeszkolony i ponoszący odpowiedzialność wojskowy, ale algorytm. Algorytm nie ma skrupułów, nie odczuwa empatii, nie boi się procesów sądowych. Co gorsza, nawet najbardziej skomplikowany algorytm nie osiągnie ludzkiego poziomu rozumienia sytuacji społecznych, analizy wydarzeń w kontekście i reagowania stosownie do okoliczności.

    Organizatorzy kampanii Stop Killer Robots (www.stopkillerrobots.org) wskazują jeszcze jedno niebezpieczeństwo: brak własnych żołnierzy na przyszłym polu bitwy sprawi, że koszty emocjonalne i polityczne podjęcia decyzji o rozpoczęciu działań zbrojnych będą znacznie mniejsze. Wojnę będzie znacznie łatwiej zacząć, gdy za tą decyzją nie będzie szła konieczność uzasadnienia, za co właściwie umierają nasi żołnierze.

    Obraz

    List otwarty do ONZ z wezwaniem do zakazu opracowania, produkcji i rozpowszechniania broni autonomicznych wystosowało ponad stu czołowych naukowców zajmujących się badaniami nad sztuczną inteligencją i robotyką. Prace nad robotami-zabójcami miałyby objąć takie same sankcje, jakie dotyczą broni chemicznej i biologicznej. Apel poparli m.in. Elon Musk i Stephen Hawking. Na forum ONZ za zakazem opowiedziały się 22 państwa (Polska nie znalazła się wśród nich). W listopadzie 2017 przedstawiciele 91 państw na Convention on Conventional Weapons w Genewie obradowali nad konsekwencjami i zagrożeniami związanymi z rozwojem militarnych zastosowań sztucznej inteligencji.

    ONZ nie podjęło jednak żadnych decyzji w tej sprawie, podobnie jak Convention on Conventional Weapons, a w prace nad bronią autonomiczną zaangażowane są takie potęgi jak USA, Rosja, Chiny, Izrael, Korea Południowa i Wielka Brytania.

    Krok od nowej ery

    Wynalezienie prochu, a później broni atomowej wyznaczyło przełomy zupełnie zmieniające kształt wojen. Jesteśmy o krok od wejścia w trzecią erę wojen – konfliktów zbrojnych z użyciem broni autonomicznych. Co gorsza, ta broń nie pozostanie tylko w arsenałach armii narodowych, ale raczej prędzej niż później trafi w ręce grup przestępczych i terrorystycznych. Czy uda się temu zapobiec, czy też jest już za późno?

    Wybrane dla Ciebie