Uniwersytet Stanforda pracuje nad ulepszeniem dźwięku dla VR
Naukowcy z Uniwersytetu Stanforda pracują nad algorytmem, który sprawi, że dźwięk w urządzeniach VR stanie się bardziej autentyczny.
Naukowcy z Uniwersytetu Stanforda pracują nad nowym algorytmem generowania dźwięku. Tworzony jest on głównie z myślą o zwiększeniu wrażeń podczas korzystania z gogli VR. Naukowcy zauważyli, że w filmach/grach wyświetlanych bezpośrednio na ekranie łatwo jest ustalić, skąd powinien pochodzić dźwięk. W VR stworzenie realistycznego audio jest utrudnione właśnie ze względu na masę dodatkowych zmiennych związanych z przestrzenią i położeniem.
Badacze zauważają, że przy funkcjonujących obecnie algorytmach, wygenerowanie bardziej autentycznego audio wymagałoby zbyt dużej mocy obliczeniowej. Wciąż bazuje się bowiem na stuletnim już modelu zaproponowanym przez Hermanna von Helmholtza, niemieckiego lekarza i fizyka znanego też ze sformułowania zasady zachowania energii. Złożoność obliczeniowa tego algorytmu przy zbyt dużej liczbie zmiennych błyskawicznie rośnie.
Pomysł na rozwiązanie problemu ma jednak profesor Doug James oraz jego doktorant Jui-Hsien Wang. Opracowywany przez badaczy algorytm ma wykorzystywać GPU do przyspieszenia obliczeń, a dzięki dodatkowym zabiegom matematycznym ma się również udać uniknąć wielu obliczeń. Sprawi to, że w czasie kilku sekund możliwe będzie wygenerowanie dźwięku o złożoności tak dużej, że jego uzyskanie standardową metodą zajęłoby kilka godzin.
Algorytm otrzymał roboczą nazwę KleinPAT od nazwiska austriackiego kompozytora Fritza Heinricha Kleina, który zasłynął tym, że połączył 12 różnych nut fortepianowych w jeden akord. Jest to nieco podobne do efektu, jaki chcą uzyskać naukowcy.