Pracownicy Mety zostaną zastąpieni przez AI. Na pierwszy ogień idą specjaliści ds. oceny ryzyka
Sztuczna inteligencja ma przejąć obowiązki pracowników koncernu odpowiedzialnych za ocenę, czy dane działania mogą naruszać prywatność użytkowników lub wyrządzić komuś krzywdę.
Wedle doniesień portalu NPR, którego redakcja miała okazję zapoznać się z wewnątrzfirmową dokumentacją Mety, całkiem pokaźna liczba pracowników korporacji pożegna się w najbliższej przyszłości z pracą. Powód? Szefostwo uznało, że mogą oni z powodzeniem zostać zastąpieni przez sztuczną inteligencję, która nie potrzebuje ani wypłaty, ani urlopu, ani nawet przerwy obiadowej.
Meta zastąpi swoich pracowników sztuczną inteligencją
Jak wspomniano we wstępie, zwolnienia mają zostać przeprowadzone w dziale oceny ryzyka. Nie zajmuje się on jednak ryzykiem ekonomicznym, a społecznym, tym samym stanowiąc swoisty hamulec dla firmy, która lubi od czasu do czasu zbliżyć się niebezpiecznie blisko granicy przyzwoitości. Pracownicy tego działu zajmowali się pośrednio m.in. moderacją treści widocznych w serwisach Mety, czyli Facebooku, Instagramie oraz Threads.
Wraz z ich odejściem i objęciem po nich schedy przez AI, amerykańskie przedsiębiorstwo pod wodzą Marka Zuckerberga prawdopodobnie będzie musiało wprowadzić wiele zmian w stojących za wymienionymi platformami algorytmach. Jeśli wierzyć treści dokumentów, do których dotarło NPR, po wdrożeniu zmian proces oceny ryzyka będzie zautomatyzowany aż w 90%.
Oczywiście rozwiązanie takie ma zarówno swoich zwolenników, jak i przeciwników. Przeciwne mu mogą być oczywiście osoby, które stracą posady na rzecz zlepka algorytmów. Zadowoleni zaś wydają się zatrudnieni przez Metę projektanci i developerzy, którzy utrzymują, że takie rozwiązanie pozwoli im szybciej wprowadzać aktualizacje. AI znacznie sprawniej poradzi sobie z przeglądem ich pomysłów i, w przeciwieństwie do ludzi, nie będzie musiało dogłębnie zapoznać się z tematem oraz przedyskutować, czy wprowadzenie zmian w niezmienionej formie nie będzie niosło ze sobą żadnego ryzyka.
Różne wątpliwości
Nie zmienia to faktu, że wiele osób, w tym te niezwiązane już z Metą, ma wątpliwości co do moralności i zasadności automatyzacji tego procesu. Jak przekazał w rozmowie z NPR jeden z byłych dyrektorów koncernu, który woli pozostać anonimowy, aby uchronić się przed odwetem ze strony swojego byłego pracodawcy:
O ile proces ten funkcjonalnie oznacza szybsze wprowadzanie na rynek większej liczby produktów, przy mniej rygorystycznej kontroli i sprzeciwie, oznacza to, że stwarzasz większe ryzyko. Istnieje mniejsze prawdopodobieństwo zapobieżenia negatywnym efektom zewnętrznym zmian w produktach, zanim zaczną one powodować problemy na świecie.
Korporacja zdecydowała się nawet wydać oświadczenie w tej sprawie i poinformowała, że celem znacznej automatyzacji procesu oceny ryzyka jest usprawnienie i przyspieszenie procesu decyzyjnego. Ludzki czynnik nie zostanie całkowicie wyeliminowany, a eksperci będą mieli okazję pochwalić się swoją wiedzą podczas analizy bardziej złożonych zagadnień. Stoi to w sprzeczności do tego, do czego udało się dotrzeć redakcji kilkukrotnie już wspomnianego w tekście serwisu. Według dokumentacji Mety, sztuczna inteligencja ma odpowiadać za przeprowadzenie oceny zagadnień z zakresu wielu dziedzin uważanych za wrażliwe, wliczając w to bezpieczeństwo AI i nieletnich, a nawet walkę z treściami noszącymi ślady przemocy oraz dezinformacji.
Zuckerberg i spółka zarzekają się, że są żarliwymi zwolennikami walki o prywatność użytkowników, a na przestrzeni ostatnich lat amerykańskie przedsiębiorstwo wydało ponoć miliardy dolarów, aby zapewnić bezpieczeństwo danych swoich klientów.
Jakub Dmuchowski, dziennikarz pcformat.pl