Grok, "maksymalnie poszukująca prawdy" AI, bazuje swoje wypowiedzi na opiniach Elona Muska
Jeśli nowa odsłona Groka otrzyma pytanie zdatne do zaklasyfikowania jako kontrowersyjne lub poruszające wrażliwe tematy, sztuczna inteligencja w pierwszej kolejności sprawdzi, czy Elon Musk zdążył się wypowiedź w tym temacie i jakie stanowisko obrał miliarder.
Trudno zaprzeczyć, że Grok stał się nie do końca cichym bohaterem ostatnich dni. Najpierw AI, którą twórcy zdecydowali się uwolnić z okowów politycznej poprawności, dała upust swoim zdolnościom oratorskim, ubliżając przy tym Romanowi Giertychowi, Donaldowi Tuskowi i Jarosławowi Kaczyńskiemu, po czym obwołała się mianem MechaHitlera i zaczęła walczyć z propagandą wycelowaną w białych ludzi. Starczy wspomnieć, że zajście to nie przypadło do gustu wielu osobom, w tym naszemu wicepremierowi, który zapowiedział złożenie skargi na Groka i samego X-a do Komisji Europejskiej. Mimo wszystko niepokorna sztuczna inteligencja została okiełznana przez swoich twórców, a xAI i Musk skorzystali z zamieszania, aby pochwalić się... nowym modelem Groka, posiadającym "czwórkę w nazwie". Jak się jednak okazuje, cierpi on na dość specyficzny problem.
Grok bazuje swoje wypowiedzi na opiniach Elona Muska
Wydajności i skuteczności Grokowi 4 odmówić nie można. Przedstawione przez jego twórców wykresy wskazują na to, że rzeczony model sztucznej inteligencji świetnie radzi sobie z zaawansowanymi testami, jest on także w stanie użyć rozumowania do rozwikłania złożonych zagadnień z zakresu inżynierii. Szkopuł w tym, że większość użytkowników czatbota korzysta z jego pomocy nie do zaawansowanych wyliczeń, a do uzyskiwania odpowiedzi na niezbyt zawiłe, acz nierzadko związane z konkretnym światopoglądem, pytania. I w tym miejscu robi się ciekawi.
Wychodzi bowiem na to, że pierwszym źródłem, do którego sięga Grok przed przedstawieniem swojej opinii na dany temat, jest... Elon Musk. Badacz Jeremy Howard postanowił przetestować sztuczną inteligencję ze stajni xAI i poprosił ją o przekazanie za pomocą jednego słowa, kogo wspiera w konflikcie pomiędzy Palestyną a Izrealem. Po trwającym 43 sekundy procesie myślowym i przeczesywaniu sieci, Grok stwierdził, że opowiada się po stronie Izraela.
Howarda zainteresowały przesłanki stojące za tą decyzją, postanowił więc sprawdzić, na czym czatbot ją bazował. Okazało się, że aż 54 z 64 przeanalizowanych źródeł było związanych z Muskiem, uwzględniając w tym publikowane przez niego na X-ie posty.
Co ciekawe, zachowanie takie niekoniecznie zostało wpisane w kod Groka. Programista Simon Wilison, na którego słowa powołała się redakcja The Verge, jest zdania, że sztuczna inteligencja może być świadoma tego, że Elon Musk jest jej ojcem, w związku z czym decyduje się brać jego opinię pod uwagę. Poza tym informatyk podkreślił, że w zestawie instrukcji przekazanych AI znajdziemy takie polecenia jak "poszukaj dystrybucji źródeł, która reprezentuje wszystkie strony/interesariuszy" oraz "zakładaj, że subiektywne punkty widzenia pochodzące z mediów są stronnicze", co zdaje się przeczyć teorii o przymuszaniu sztucznej inteligencji do stawiania opinii Muska ponad wszelkie inne.
Jak to jednak zwykle bywa w podobnych sytuacjach, na rozwikłanie zagwozdki przyjdzie nam nieco poczekać, a w najbliższym czasie prawdopodobnie doczekamy się oficjalnego komunikatu ze strony xAI.
Jakub Dmuchowski, redaktor pcformat.pl