San Diego zabrania rozpoznawania twarzy
Aplikacje służące do rozpoznawania twarzy budzą kontrowersje na całym świecie. Ruchy wolnościowe przekonują, że inwigilacja obywateli narusza ich prawa. Mimo to służby w wielu krajach mniej lub bardziej oficjalnie wykorzystują sztuczną inteligencje do śledzenia ludzi.
Tak też postąpiła początkowo policja w San Diego. Próby wykorzystania aplikacji Clearview AI dotyczyły śledztwa w sprawie przestępstw finansowych, które detektywi prowadzili razem z uprawnionymi pracownikami banków. W tej sprawie (i kilku innych, w których wykorzystywano Clearview AI) nikomu nie postawiono zarzutów, ale decyzja o zakazie używania aplikacji została podjęta dopiero po tych działaniach.
Program Clearview AI powstał trzy lata temu, głównie na potrzeby organów ścigania. Aplikacja pozwala na podstawie zdjęcia wyświetlić wszystkie strony w internecie, na których pojawia się zarejestrowana twarz. Jeśli więc inwigilowana osoba została gdziekolwiek nagrana na kamerze w miejscu publicznym, to jest duże prawdopodobieństwo, że na tej podstawie zostanie określone jej miejsce pobytu. I w tym właśnie miejscu kończą się pozory prywatności.
Przypomnijmy, że o ile technologia rozpoznawania twarzy jest stosowana ze względów bezpieczeństwa w wielu miejscach, o tyle olbrzymie kontrowersje budzi sposób, w jaki właściciele Clearview AI weszli w posiadanie olbrzymiej bazy zdjęć – zostały one zebrane z profili milionów osób w portalach społecznościowych. Mimo sprzeciwu największych z nich (Twittera, Google'a, Facebooka i innych) zdjęcia pozyskane w ten sposób nie zostały usunięte.
Z usług aplikacji korzysta ok. 600 departamentów policji w USA, a nawet FBI. Policja w Chicago zapłaciła 50 tys. dolarów za dwuletnią licencję na używanie Clearview AI. Dostęp do bazy danych ma tam 30 funkcjonariuszy. Organy ścigania chętnie wykorzystują program do ścigania podejrzanych o kradzieże sklepowe i oszustwa związane z kartami kredytowymi, a nawet terroryzm.
Jednak policja w San Diego nie będzie już mogła stosować Clearview AI – m.in. dlatego, że wobec tego narzędzia kierowane są zarzuty o stosowanie algorytmów dyskryminujących pod względem płci i rasy. A to stwarza prawdopodobieństwo fałszywych dopasowań lub ujawniania danych wrażliwych.
fot. geralt – Pixabay