Czy AI jest stronnicze? Sony podobno znalazło sposób, aby to sprawdzić
Fair Human-Centric Image Benchmark to przygotowany przez dział AI Sony test, który miarodajnie ocenia zachowanie różnych modeli sztucznej inteligencji i sprawdza, czy nie są one zbyt stronnicze w niektórych kwestiach.
Stronniczość nie jest rzadko spotykanym zjawiskiem wśród przeróżnych modeli sztucznej inteligencji. Co więcej, trudno uniknąć jego wystąpienia, jako że wszelkiej maści uprzedzenia wynikają z materiałów, które zostały wykorzystane w procesie szkolenia AI. Oczywiście inżynierowie mogą stosować mniej lub bardziej wysublimowane zagrywki i blokady celem "ukierunkowania" swojego tworu na pożądany tok myślenia. Niemniej, jak dowodzi przeszłość i sytuacja z Gemini Google, na którym została wymuszona skrajna poprawność polityczna, nie kończy się to zbyt dobrze. Wychodzi więc na to, że sztuczna inteligencja, tak, jak i jej twórcy, nie jest w stanie być w pełni obiektywna. Nie oznacza to jednak, że sytuacja musi taka pozostać, a o jej zmianę walczy Sony AI ze swoim FHIBE.
Sony sprawdzi stronniczość sztucznej inteligencji
FHIBE (wymawiane jako Fee-Bee, czyli Fibi), a w zasadzie Fair Human-Centric Image Benchmark (pol. sprawiedliwy, zorientowany na człowieka benchmark obrazów) to, wedle zapewnień Sony, "pierwszy publicznie dostępny, zróżnicowany pod względem globalnym, oparty na zgodzie zbiór danych stworzony specjalnie w celu oceny sprawiedliwości w zadaniach związanych z wizją komputerową zorientowaną na człowieka". W skrócie – jest to zaawansowane powstałe z myślą o przeprowadzanie testów stronniczości wśród modeli AI.
Jak zwrócono uwagę w tekście opublikowanym na stronie Sony AI, większość zbiorów danych wykorzystywanych do trenowania sztucznej inteligencji jest stronnicza, co bezpośrednio wynika z tego, że zebrane w ich ramach materiały są zazwyczaj mało różnorodne. Osobną kwestią pozostaje to, że sposób, w jaki pozyskano rzeczone treści, zazwyczaj budzi wątpliwości natury nie tylko etycznej, ale również prawnej.
Twór Sony AI został przedstawiony jako "odpowiedzialnie opracowany zbiór zaprojektowany w celu promowania sprawiedliwości w dziedzinie widzenia komputerowego". Korporacja chwali się, że jej produkt wypełnia lukę, która do tej pory nie została zagospodarowana przez konkurencję. Podkreślono przy tym, że większość zbiorów danych do oceny stronniczości AI samemu ma sporo na sumieniu, jako że brakuje im szczegółowych adnotacji.
W skład Fair Human-Centric Image Benchmark wchodzi 10 318 zatwierdzonych zdjęć. Każda z fotografii przedstawia jedną lub dwie osoby, które zostały uchwycone na obrazie w 81 państwach za pomocą "różnych środowisk i typów aparatów". Sony zaznaczyło, iż zdjęcia zostały dostarczone bezpośrednio przez osoby, które są na nich widoczne, a każdy z uczestników badania wykonał ok. sześciu ujęć.
Naukowcy podzielili się także pierwszymi odkryciami dokonanymi z pomocą FHIBE. Jak podaje redakcja The Register, modele AI, których nazw nie udostępniono, miały przesadną skłonność do wzmacniania stereotypów oraz utożsamiania określonych grup demograficznych z działalnością przestępczą.
Celem dzieła Sony AI jest zachęcenie całej branży do stosowania bardziej etycznych praktyk gromadzenia danych, co pozwoli uniknąć zatruwania sztucznej inteligencji szkodliwymi treściami reprezentującymi uprzedzenia. Alice Xiang, główny naukowiec badawczy w Sony AI, poinformowała, że FHIBE może okazać się niezwykle przydatne za sprawą wymogów wynikających z ustawy o AI Unii Europejskiej oraz niektórych przepisów wprowadzonych przez część stanów USA.
Jakub Dmuchowski, redaktor pcformat.pl