Sztuczna inteligencja pomoże w wyścigu zbrojeń. Google znosi zakaz używania AI w zastosowaniach militarnych
Firma Google po raz kolejny zmienia swoje zasady. Oczywiście na gorsze.
Pamiętacie, jak brzmiało pierwsze motto Google'a? W zamierzchłych czasach, czyli gdzieś w okolicach początku obecnego millenium, firma zaczęła legitymować się hasłem "Don’t be evil", które otwierało jej kodeks postępowania. W 2015 roku zostało ono zastąpione frazą "Do the right thing", wspomniana zaś na początku sentencja z dokumentacji giganta ostatecznie zniknęła w pierwszej połowie 2018 roku. Wygląda na to, że teraz firma poszła o krok dalej – przynajmniej jeśli chodzi o bardziej szczegółowe założenia.
AI pomoże w tworzeniu broni przyszłości
We wtorek Google bez większego rozgłosu – bo poprzez dodanie notki aktualizacyjnej do wpisu na blogu z 2018 roku – "ogłosiło", że zmienia zasady regulujące sposób wykorzystania sztucznej inteligencji i innych nowoczesnych technologii. Nie byłoby w tym nic dziwnego, gdyby nie kilka detali. Z dokumentacji zniknęły bowiem bardzo istotne frazy, wskazujące na to, że firma nie będzie stosować:
- technologii, które powodują lub mogą powodować ogólne szkody,
- broni lub innych technologii, których głównym celem lub wdrożeniem jest powodowanie lub bezpośrednie ułatwianie powodowania obrażeń u ludzi,
- technologii, które gromadzą lub wykorzystują informacje do nadzoru naruszające międzynarodowo akceptowane normy,
- technologii, których cel narusza powszechnie akceptowane zasady prawa międzynarodowego i prawa człowieka.
Wspomniany zbiór zasad po raz pierwszy pojawił się w 2018 roku i wówczas jego głównym celem było uspokojenie nastrojów w firmie. Wówczas chodziło o współpracę z amerykańskim sektorem zbrojeniowym i pomoc Google’a w opracowywaniu dronów bojowych. Stanęło wtedy na tym, że firma pod naciskiem pracowników wycofała się z kontraktu rządowego. Według tych wytycznych gigant miał porzucić rozwój broni, systemów nadzoru i innych technologii, które uderzają w prawa człowieka i mogą przyczynić się do jego krzywdy. Cóż, wygląda na to, że to już przeszłość. Sytuację skomentowało dwóch dyrektorów przedsiębiorstwa.
Uważamy, że demokracje powinny przewodzić w rozwoju AI, kierując się podstawowymi wartościami, takimi jak wolność, równość i poszanowanie praw człowieka. Wierzymy, że firmy, rządy i organizacje podzielające te wartości powinny współpracować, aby tworzyć AI, które chroni ludzi, promuje globalny wzrost i wspiera bezpieczeństwo narodowe.
Jak widać, po poprzednich jasnych deklaracjach nie został nawet ślad, zamiast tego władze spółki mówią o łagodzeniu niezamierzonych lub szkodliwych skutków zastosowania sztucznej inteligencji oraz o konieczności odpowiedniego nadzoru nad technologią i przewodnią rolą demokracji w tym aspekcie. Trudno również nie zauważyć, że zmiany te pojawiły się na początku prezydentury Donalda Trumpa – co tak naprawdę bardzo dużo mówi o stosunkach, jakie obecnie panują pomiędzy big techem a nowymi amerykańskimi władzami.