Google kasuje wybrane podsumowania AI dotyczące zdrowia. Wskazówki mogły stanowić zagrożenie dla użytkowników
Obecne już od dłuższego czasu w wyszukiwarce podsumowania AI miały umożliwić szybki i wygodny dostęp do najważniejszych informacji, a przytaczane przez sztuczną inteligencję dane, wedle zapewnień Google, powinny być wiarygodne. Jak się jednak okazało, w wielu przypadkach, w tym tych związanych ze zdrowiem, AI nie wywiązywała się wzorowo ze swojego zadania, co mogło stanowić poważne zagrożenie dla osób, które uwierzyłyby algorytmom.
Na początku styczna redakcja dziennika Guardian przeprowadziła dochodzenie, w wyniku którego udowodniono, że podsumowania AI Google zawierają niedokładne lub wręcz fałszywe informacje. Co istotne, problem ten dotyczy szerokiego spektrum tematów, w tym tych związanych ze zdrowiem. Sprawia to, że użytkownicy wyszukiwarki, którzy postanowią zastosować w praktyce wskazówki podsunięte przez sztuczną inteligencję, mogą znaleźć się w poważnym zagrożeniu.
Dla przykładu, Google zasugerowało, aby osoby cierpiące z powodu raka trzustki unikały pokarmów o wysokiej zawartości tłuszczu, kiedy w rzeczywistości powinno być zupełnie na odwrót. Specjaliści stwierdzili, że takie "porady" mogą zwiększyć ryzyko zgonu wśród chorych, w związku z czym nieodpowiedzialna korporacja miałaby krew na rękach. Gigant z Mountain View postanowił odnieść się do problemu i, wedle świeżych doniesień, z sieci zniknęła część kontrowersyjnych materiałów wyprodukowanych przez algorytmy.
Porady AI Google mogły doprowadzić do krzywdy
Guardian dostrzegł, iż z popularnej wyszukiwarki zniknęły podsumowania AI jeszcze do niedawna wyświetlane pod zapytaniami pokroju "jaki jest normalny zakres badań krwi wątroby" lub "jaki jest normalny zakres badań czynności wątroby". Skala czystek jest prawdopodobnie większa, aczkolwiek trudno to ocenić ze względu na postawę Google.
Jak przekazał przedstawiciel przedsiębiorstwa, nie ma ono zamiaru komentować poszczególnych usunięć z wyszukiwarki. Nadmieniono przy tym, że "w przypadkach, gdy przeglądy AI nie uwzględniają pewnego kontekstu, trwają prace nad wprowadzeniem szeroko zakrojonych ulepszeń, a w stosownych przypadkach podejmowane są działania zgodne z polityką firmy".
Mimo podjętych przez Google prób wyeliminowania problemu, ten wciąż zdaje się obecny. Dziennikarze odkryli, iż wystarczy nieco zmodyfikować zapytanie, aby kłamliwe podsumowania AI ponownie zagościły na ekranie monitora. Jakby tego było mało, korporacja podeszła do zagadnienia dość wybiórczo, a sklasyfikowane przez ekspertów jako wierutne bzdury podsumowania wciąż wyświetlają się nad wynikami wyszukiwania dotyczącymi zdrowia psychicznego lub nowotworów. Biznes odbija piłeczkę, twierdząc, że jego wewnętrzny zespół klinicystów "przeanalizował udostępnione informacje i stwierdził, że w wielu przypadkach nie były one niedokładne, a ponadto były poparte wysokiej jakości stronami internetowymi".
Technologiczny gigant utrzymuje, iż rzeczone podsumowania generowane przez sztuczną inteligencję pojawiają się jedynie w przypadku zapytań, co do których istnieje wysoka szansa na udzielenie trafnej i rzetelnej odpowiedzi. Jakość twórczości AI jest podobno stale analizowana, aby zagwarantować najwyższą jakość i wyeliminować wszelkie błędy. Raport Guardian zdaje się jednak sugerować, że stwierdzenie to padło z ust Google nieco na wyrost.
Jakub Dmuchowski, redaktor pcformat.pl