Level design
Projektant poziomów rozpoczyna od researchu. Niekiedy wnikliwego, bo np. by przygotować się do Assassin’s Creed Unity, Nicolas Guerin z Ubisoftu przejrzał ponad 150 archiwalnych planów miejskich i map! Następnie rozrysowuje lokacje na kartce (lub edytorach grafiki w rodzaju Gimpa czy AutoCAD-a). Gdy projekt nabiera kształtów, przenosi go do specjalistycznego edytora, zapełniając postaciami i skryptami. Musi jednak pozostawać w stałym kontakcie z grafikami czy programistami, którzy będą czuwać nad tym, by – przykładowo – zbyt duże zagęszczenie obiektów nie poskutkowało spadkami wydajności podczas grania.
Celem level designera jest opracowanie poziomu nie tylko estetycznego, ale i funkcjonalnego – gracz nie może zbyt często sięgać po minimapę. W sieciowych strzelankach należy zatroszczyć się o to, by dwie połówki planszy były względnie symetryczne (obie drużyny powinny mieć podobne warunki), a w przygodówkach czy RPG-ach warto zastosować elementy otoczenia do pogłębiania narracji (tzw. environmental storytelling).
Motion capture
Przystępując do nagrań developer ma rozrysowany tzw. storyboard (czyli scenorys, szkice obrazujące poruszanie się postaci, służące za wskazówki dla realizatorów). Rolą specjalistów od motion capture jest jak najwierniejsze przechwycenie ruchów uczestniczących w sesji aktorów. Ci meldują się na planie przywdziawszy kostium z ok. 50 odbijającymi światło markerami (znacznikami zlokalizowanymi w takich punktach, by móc na ich podstawie stworzyć wirtualny szkielet postaci), otoczeni przez kamery emitujące wiązki podczerwieni. Jeśli postać, jaką odgrywa performer, jest od niego cięższa, musi dodatkowo założyć specjalne obciążniki. Markerami trzeba też oznaczyć rekwizyty, przy czym mogą być one bardzo symbolicznymi reprezentacjami tego, co zobaczymy później w grze (przykładowo piłą mechaniczną w Dead Island: Riptide był kawałek styropianu z przytroczonym wieszakiem, a koniem w Wiedźminie bywało biurko). Początkowo aktor staje wyprostowany jak struna i rozkłada ręce na boki, wykonując tzw. T-Pose. Wówczas każdy z 50 znaczników jest doskonale widoczny, co pomaga później w obróbce materiału – markery mają bowiem tendencje do „gubienia się”, bywa, że jedne przysłaniają drugie, albo że wiązka światła odbije się od elementu otoczenia.
Nagrać trzeba wszystko, od przerywników filmowych, po tzw. idle (czyli sekwencje, w których bohater gry stoi w miejscu, nie zajmując się niczym konkretnym – może on wówczas przestępować z nogi na nogę czy popalać papierosa). A gdy padnie ostatni klaps, obraz trzeba zrekonstruować (przenieść z 2D do trójmiaru) i przedłożyć animatorom.
Animacja
Animator otrzymuje materiał zarejestrowany podczas sesji motion capture. Jego podstawowym zadaniem jest odsianie niepotrzebnych ruchów (rejestrujące ruch kamery są superdokładne, a w grze niekoniecznie trzeba oddać – na ten przykład – drżenie mięśni nóg, bo to odbiłoby się negatywnie na liczbie klatek). Musi też zapętlić nagrane sekwencje w taki sposób, by postać wypadała jak najbardziej naturalnie. Na tym etapie ma do dyspozycji wirtualny szkielet – jeżeli więc zdecyduje się – na ten przykład – podnieść ramiona postaci, adekwatnie zareagują i inne „kości”.
Eksperci od animacji są również odpowiedzialni za opracowanie drzewek animacyjnych. W przypadku dużych gier nie jest bowiem możliwe dopieszczenie każdej sceny, jak dzieje się z filmami Disneya czy Pixara, bo to wymagałoby zarejestrowania (metodą motion capture) każdej sekwencji z osobna. Przy wysokobudżetowych RPG-ach (w rodzaju Wiedźmina 3 czy Mass Effecta Andromedy) tworzy się więc generatory, które mają zautomatyzować proces. Np. oprogramowanie, które – na podstawie tembru głosu – błyskawicznie określa, czy postać jest wściekła czy rozanielona i na tej podstawie dobiera z biblioteki gestów i grymasów odpowiednie zachowania. Na bazie fonemów (czyli jednostek dźwiękowych języka) generuje też ruch ust. Sęk w tym, że nie są to rozwiązania idealne, a ich mankamenty należy ręcznie skorygować.
Sztuczna inteligencja
Projektanci sztucznej inteligencji muszą wlać do głów tak przygotowanych (i rozruszanych) modeli nieco oleju. Słowem: stworzyć algorytmy, w oparciu o które będą funkcjonować występujące w grze postaci. Zazwyczaj odbywa się to dzięki skryptom. By zasymulować rywala, bot musi nauczyć się poruszania w pomieszczeniach, strzelania i unikania pocisków, dostosowywania arsenału do konkretnej sytuacji, chowania się za osłonami i wyszukiwania właściwych ścieżek do osiągnięcia celu. Szczególnie problematyczny jest ten ostatni aspekt – choć graficy i programiści chcieliby, by plansze były zróżnicowane geometrycznie i najeżone obiektami, każdy niuans odbija się na negatywnie na zachowaniu AI.
Wbrew nazwie – nie chodzi tu o żadną inteligencję (czyli uczenie się), ale raczej o odnalezienie się w gąszczu wariantów – oponent musi wiedzieć, że jeżeli gracz jest blisko – powinien użyć strzelby, a jeśli daleko – najlepiej karabinu snajperskiego. Mało tego: dobre AI powinno być w dużym stopniu przewidywalne, bo przecież nie chcemy, by strażnik co i rusz zmieniał w skradance trasę patrolu. Żeby rywalizować z graczem w bardziej kompleksowych tytułach, sztuczna inteligencja musi czasem oszukiwać. W strzelankach zna pozycję żywego oponenta, choć w teorii nie powinna, w ścigałkach czasem „pozwala się” dogonić, a w RTS-ach przeciwnik często szybciej od nas wytwarza surowce i werbuje oddziały.