Sztuczna inteligencja pomoże w wyścigu zbrojeń. Google znosi zakaz używania AI w zastosowaniach militarnych

    Firma Google po raz kolejny zmienia swoje zasady. Oczywiście na gorsze.

    Samolot wojskowy
    Samolot wojskowy
    Źródło zdjęć: © Pexels | Pexels

    Pamiętacie, jak brzmiało pierwsze motto Google'a? W zamierzchłych czasach, czyli gdzieś w okolicach początku obecnego millenium, firma zaczęła legitymować się hasłem "Don’t be evil", które otwierało jej kodeks postępowania. W 2015 roku zostało ono zastąpione frazą "Do the right thing", wspomniana zaś na początku sentencja z dokumentacji giganta ostatecznie zniknęła w pierwszej połowie 2018 roku. Wygląda na to, że teraz firma poszła o krok dalej – przynajmniej jeśli chodzi o bardziej szczegółowe założenia.

    AI pomoże w tworzeniu broni przyszłości

    We wtorek Google bez większego rozgłosu – bo poprzez dodanie notki aktualizacyjnej do wpisu na blogu z 2018 roku – "ogłosiło", że zmienia zasady regulujące sposób wykorzystania sztucznej inteligencji i innych nowoczesnych technologii. Nie byłoby w tym nic dziwnego, gdyby nie kilka detali. Z dokumentacji zniknęły bowiem bardzo istotne frazy, wskazujące na to, że firma nie będzie stosować:

    • technologii, które powodują lub mogą powodować ogólne szkody,
    • broni lub innych technologii, których głównym celem lub wdrożeniem jest powodowanie lub bezpośrednie ułatwianie powodowania obrażeń u ludzi,
    • technologii, które gromadzą lub wykorzystują informacje do nadzoru naruszające międzynarodowo akceptowane normy,
    • technologii, których cel narusza powszechnie akceptowane zasady prawa międzynarodowego i prawa człowieka.

    Wspomniany zbiór zasad po raz pierwszy pojawił się w 2018 roku i wówczas jego głównym celem było uspokojenie nastrojów w firmie. Wówczas chodziło o współpracę z amerykańskim sektorem zbrojeniowym i pomoc Google’a w opracowywaniu dronów bojowych. Stanęło wtedy na tym, że firma pod naciskiem pracowników wycofała się z kontraktu rządowego. Według tych wytycznych gigant miał porzucić rozwój broni, systemów nadzoru i innych technologii, które uderzają w prawa człowieka i mogą przyczynić się do jego krzywdy. Cóż, wygląda na to, że to już przeszłość. Sytuację skomentowało dwóch dyrektorów przedsiębiorstwa.

    Uważamy, że demokracje powinny przewodzić w rozwoju AI, kierując się podstawowymi wartościami, takimi jak wolność, równość i poszanowanie praw człowieka. Wierzymy, że firmy, rządy i organizacje podzielające te wartości powinny współpracować, aby tworzyć AI, które chroni ludzi, promuje globalny wzrost i wspiera bezpieczeństwo narodowe.

    James Manyika oraz Demis HassabisGoogle

    Jak widać, po poprzednich jasnych deklaracjach nie został nawet ślad, zamiast tego władze spółki mówią o łagodzeniu niezamierzonych lub szkodliwych skutków zastosowania sztucznej inteligencji oraz o konieczności odpowiedniego nadzoru nad technologią i przewodnią rolą demokracji w tym aspekcie. Trudno również nie zauważyć, że zmiany te pojawiły się na początku prezydentury Donalda Trumpa – co tak naprawdę bardzo dużo mówi o stosunkach, jakie obecnie panują pomiędzy big techem a nowymi amerykańskimi władzami.

    Wybrane dla Ciebie