A A A

AI nie zawsze prawidłowo rozpoznaje twarz

2 marca 2020, 13:30
Google jako pierwszy ogłosił, że w programie do rozpoznawania twarzy nie będzie używać etykiet płciowych przy oznaczaniu zdjęć.
AI nie zawsze prawidłowo rozpoznaje twarz

Teraz gigant wywiera wpływ na inne wielkie firmy, by zamiast określeń „mężczyzna" lub „kobieta" stosowały zwrot „osoba". Apel ze strony Google'a dotyczy trzech największych koncernów: Microsoftu, Amazona i IBM-u. Chodzi o to, by wykorzystując narzędzia sztucznej inteligencji (AI) do rozpoznawania twarzy, firmy zaprzestały używania tagów oznaczających płeć na rzecz określeń bardziej neutralnych.

Google, który w swoich algorytmach zmienił stosowne oznaczenia w lutym br., swoją decyzję uzasadnia tym, że nie zawsze na podstawie wyglądu można wywnioskować prawdziwą płeć. Błędne oznaczenia mogą według firmy wywoływać i zaostrzać konflikty, a także narażać wiele osób na nieprzyjemności.

Joy Buolamwini, informatyczka z MIT i ekspert od stronniczości AI, już w 2018 r. opublikowała badania, z których wynika, że narzędzia AI Microsoftu i IBM-u miały poważne problemy ze słusznym zakwalifikowaniem konkretnej osoby do danej płci, jeśli analizowały twarz kobiet o ciemnej karnacji. Dalsze prace nad tym zagadnieniem doprowadziły badaczkę do wniosków zaprezentowanych w zeszłym roku. Wynika z nich, że podobne problemy z oprogramowaniem ma również Amazon.

Firma zaprzeczyła, ale nacisk środowisk naukowych jest na tyle duży, że największe koncerny zastanawiają się, aczkolwiek niechętnie, nad zmianą polityki i innym oznaczeniem osób. Wiąże się to również z porzuceniem tagów identyfikujących rasę, pochodzenie czy niepełnosprawność, bo wszystkie te elementy mogą zostać błędnie rozpoznane przez programy identyfikujące twarz.

Sasha Costanza-Chock, profesor nadzwyczajny w MIT, dodaje, że klasyfikacje płci najbardziej narażają na pomyłki i przykre zdarzenia osoby trans i ciemnoskóre kobiety. To właśnie te grupy są najbardziej narażone na błędną klasyfikację. Jako jeden z przykładów profesor wskazała, że transseksualni kierowcy Ubera są blokowani w niektórych aplikacjach, ponieważ ich wygląd fizyczny nie pasuje już do zdjęć przechowywanych przez największe koncerny.

Opór ze strony przedsiębiorstw jest o tyle zrozumiały, że zbieranie tych danych ma ogromne znaczenie komercyjne, gdyż pozwala na tworzenie ofert bardziej dopasowanych do indywidualnych preferencji konkretnych osób.

fot. Gerd Altmann – Pixabay

 


Tagi:
Ocena:
Oceń:
Komentarze (0)

Redakcja nie ponosi odpowiedzialności za treść komentarzy. Komentarze wyświetlane są od najnowszych.
Najnowsze aktualności


Nie zapomnij o haśle!
21 czerwca 2022
Choć mogą się wydawać mało nowoczesne, hasła to nadal nie tylko jeden z najpopularniejszych sposobów zabezpieczania swoich kont, ale także...


Załóż konto
Co daje konto w serwisie pcformat.pl?

Po założeniu konta otrzymujesz możliwość oceniania materiałów, uczestnictwa w życiu forum oraz komentowania artykułów i aktualności przy użyciu indywidualnego identyfikatora.

Załóż konto