AktualnościSztuczna inteligencja w ciele robota. Badacze znaleźli oryginalny sposób, by nauczyć AI prawdziwego znaczenia słów

    Sztuczna inteligencja w ciele robota. Badacze znaleźli oryginalny sposób, by nauczyć AI prawdziwego znaczenia słów

    Zasadniczym problemem dużych modeli językowych jest to, że… nie znają pojęć, którymi operują. Zespół badaczy z Okinawa Institute of Science and Technology postanowił to zmienić.

    Dłoń robota
    Dłoń robota
    Źródło zdjęć: © Pexels

    AI operuje słowami w oderwaniu od ich znaczeń – my z kolei najpierw doświadczamy, a dopiero potem nazywamy daną rzecz, pojęcie czy zjawisko. W praktyce to bardzo duża różnica, sztuczna inteligencja bowiem w tym kontekście cały czas porusza się w sferze "teorii". Naukowcy z japońskiego ośrodka postanowili przyjrzeć się problemowi bliżej i spróbować temu zaradzić.

    AI jak dziecko

    W doświadczeniu wykorzystano szereg metod "symulujących" rozwój, jakiego doświadczają dzieci. Wśród nich znalazło się oczywiście najprostsze kojarzenie obrazów ze słowami, naukowcy próbowali jednak również czegoś mniej ortodoksyjnego – tutaj bez wątpienia intrygująco brzmi pomysł analizy strumienia wideo z kamerki… przyczepionej do dziecka. To jednak nie zdało egzaminu: okazało się, że dzieci nie skupiają się tylko na kojarzeniu nazwy z przedmiotem, co zaburzało proces uczenia się modelu AI.

    Inspiracją dla naszego modelu była psychologia rozwojowa. Próbowaliśmy naśladować sposób, w jaki niemowlęta uczą się i rozwijają język

    Prasanna VijayaraghavanOkinawa Institute of Science and Technology

    Ostatecznie znaleziono najlepsze rozwiązanie w postaci wykorzystania w szkoleniu prawdziwego robota. Ten ostatni przyjął dość prostą formę ramienia z chwytakiem. Dzięki temu możliwe stało się podnoszenie i przenoszenie przedmiotów – całą operację zaś rejestrowała bardzo prosta kamerka o rozdzielczości 64 x 64 piksele. Zadanie było banalne: robot, ustawiony przed białym stołem z różnokolorowymi klockami, miał przenosić te ostatnie według instrukcji typu "przesuń w lewo zielony klocek" lub "umieść czerwony klocek na żółtym". Zadaniem AI w tym wypadku było więc nie tylko poprawne identyfikowanie obiektów na scenie, ale również prawidłowa manipulacja przedmiotami.

    Rezultaty doświadczenia

    Ogółem "mózg" robota składał się z czterech współpracujących ze sobą sieci neuronowych. Pierwsza przetwarzała dane z kamery, druga – w dużym skrócie – odpowiadała za "świadomość" umiejscowienia robota w przestrzeni, trzecia umożliwiała "rozumienie" języka i zadań, z kolei ostatnia przewidywała wynik pracy trzech poprzednich w każdym kroku. Tak skonstruowany zespół został przyuczony do posługiwania się poleceniami i sekwencjami ruchów.

    Artystyczna wizualizacja sieci neuronowej
    Artystyczna wizualizacja sieci neuronowej© Pexels

    Okazało się, że AI w ciele robota, opierając się na wcześniej wyuczonych skojarzeniach pomiędzy poleceniami a działaniami, potrafiła wykonywać czynności, do jakich nie była przygotowana. Innymi słowy, poznanie np. koncepcji zmiany kolejności czy odpowiedniego ustawiania przedmiotów pozwoliło je wykorzystać przy okazji realizacji nieznanych wcześniej zadań. Naukowcom tym samym udało się osiągnąć coś wcześniej niespotykanego: AI przyswoiło stojące za słowami pojęcia.

    Oczywiście ten eksperyment pokazuje, że przed nami jeszcze daleka droga. Tutaj mieliśmy do czynienia z bardzo prostą sceną i bardzo ograniczonymi zakresami czynności, do tego za całość obliczeń odpowiadała jedynie jedna karta graficzna RTX 3090. Również szkolenie było, cóż, "łopatologiczne": naukowcy podają, że dopiero nauczenie AI zestawu 80% możliwych kombinacji poleceń w powiązaniu z przedmiotami pozwoliło jej podejmować samodzielne czynności w przypadku pozostałych 20% zadań. Tym niemniej nie zmienia to faktu, że pierwszy krok już za nami i najprawdopodobniej możliwe jest rozwinięcie tej metody w znacznie szerszym zakresie, a co za tym idzie szkolenie "sztucznego" mózgu na wzór tego prawdziwego.

    Wybrane dla Ciebie