Animacja 3D – Juggernaut

10 lutego 2015 No comment

Tym razem udostępniam krótką animację 3D prezentującą mecha no nazwie Juggernaut pochodzącego ze świata Warmachine. Projekt powstał w celach naukowych i hobbystycznych. Nie został stworzony w celach komercyjnych.

Głównym zadaniem mojego projektu jest analiza procesu produkcyjnego animacji 3D z wykorzystaniem systemu motion capture w połączeniu z materiałem wideo. Aby skrupulatnie i dokładnie opisać poszczególne etapy tworzenia komputerowych efektów specjalnych, należało przygotować kilka przykładowych ujęć krok po kroku. Poczynając od materiałów do modelowania postaci, przez nagranie materiału wideo kamerą cyfrową, modelowanie, teksturowanie i przygotowanie shaderów, sesję motion capture, rigging postaci, integrację animacji z motion capture, oświetlenie, tracing kamery, po rendering i postprodukcję.

Pomysł realizacji projektu obejmuje integrację filmu wideo nagranego kamerą cyfrową z wygenerowanym obrazem animacji postaci w programie do grafiki 3D. Konkretniej mówiąc, polega to na wstawieniu postaci robota (mech Juggernaut) na dziedziniec dawnego  wrocławskiego więzienia miejskiego. Sam budynek jest bardzo dobrze zachowany, więc można było go swobodnie sfilmować. W postprodukcji należało jedynie usunąć współczesne elementy, takie jak etykiety ostrzegawcze na ścianach lub kable. Stworzona postać Juggernauta z zastosowaniem programu Autodesk 3ds Max była inspirowana światem gry bitewnej Warmachine amerykańskiej firmy Privateer Press .

Całość projektu możemy podzielić na cztery etapy pracy:
1.    Grafika 3D (modelowanie, teksturowanie, shadery, animacja, oświetlenie, rendering).
2.    Motion capture (sesja motion capture, oczyszczenie danych).
3.    Wideo (zdjęcia filmowe, 3D camera tracking).
4.    Postprodukcja (compositing, korekcja obrazu).

Schemat powstawania animacji 3D

 

schemat-powstawania-animacji-3d

 

Pierwsze trzy etapy projektu można realizować do pewnego momentu równolegle. Posiadając dobrze przygotowany plan działania (scenariusz, koncept artystyczny, animatiki, eksplikacja), równocześnie mogą powstawać elementy grafiki 3D, motion capture i wideo. Oczywiście do momentu, gdzie poszczególne etapy łączą się w całość, co przedstawia powyższy schemat. Idąc od jego początku, aby rozpocząć animację postaci, musimy posiadać kompletny model 3D mecha oraz oczyszczony materiał z nagrania sesji motion capture. Następnie, aby dobrze oświetlić scenę i ustawić kamerę w programie 3D, musimy mieć gotowe nagranie wideo. Dopiero na końcu przechodzimy do procesu postprodukcji i montażu obrazu i dźwięku.

Ten schemat produkcji możemy zastosować właściwie do większości tworzonych ujęć, w których łączymy film wideo z animacją 3D, oczywiście z pewnymi wyjątkami. W branży produkcji filmów czy gier komputerowych, proces ten nazywany jest z języka angielskiego –Computer Graphics Pipeline lub po prostu Pipeline  . Zwrot ten jeszcze się nie doczekał polskiego odpowiednika. W wolnym tłumaczeniu Pipeline oznacza rurociąg, co nie odzwierciedla sensu tego słowa w kontekście produkcji VFX. Zwrot proces technologiczny również nie jest do końca odpowiedni, ponieważ bardziej się kojarzy z linią produkcyjną w fabryce.

Ostatecznie wynikiem całego procesu produkcji są krótkie ujęcia połączonych materiałów wideo z dodanymi komputerowo efektami specjalnymi. Obraz został wyrenderowany do plików filmowych Quick Time Video (*.mov) w rozdzielczości FullHD (Full High-Definition, 1080p, 1920 × 1080 pikseli).

Zacznę od opisania części dotyczącej grafiki 3D, a mianowicie od przygotowania odpowiednich materiałów i modelowania postaci Juggernauta w programie 3ds Max i V-Ray. Modelowanie to proces twórczy, polegający na kreowaniu geometrii 3D przy pomocy dostępnych narzędzi. Programy do grafiki 3D oferują wiele typów modeli oraz wiele sposobów ich tworzenia. Wybór techniki w głównej mierze zależy od przeznaczeniu efektów naszej pracy. Tworząc obiekty architektury, możemy pracować na obiektach parametrycznych (są to modele predefiniowane w programie i możemy zmieniać ich parametry w każdej chwili). Przygotowując materiały do gry komputerowej, będziemy operowali obiektami typu Mesh (trójkąty), co wymuszone jest przez architekturę silników gier. Na potrzeby animacji, która zostanie wykorzystana w filmie, najlepsze będą modele typu Polygon (kwadraty lub wielokąty). Dodatkowo zostaną wykorzystane obiekty wektorowe typu Splines, które ostatecznie będą przekonwertowane na Editable Poly.

Kolejnym etapem pracy jest tworzenie shaderów, w 3ds Max zwanych materiałami i odpowiadają za wygląd obiektów, które pokrywają. Tak jak spotykamy materiały w życiu codziennym, np. szkło, metal, plastik, drewno, tak w środowisku 3D mamy do dyspozycji edytor materiałów, w którym możemy decydować o właściwościach renderowanych powierzchni. Użytkownik ma do dyspozycji wiele parametrów, którymi może ustawić te najbardziej podstawowe właściwości, takie jak kolor, przeźroczystość, poziom odbijania lub blask. Material Editor daje praktycznie nieograniczone możliwości tworzenia bardziej zaawansowanych shaderów, do których można dodać właściwości fizyczne jak chropowatość, wypukłość, zabrudzenie, emisja światła lub współczynnik załamania promieni światła IOR (Index of Refraction).

Następnie przechodzę do procesu teksturowania, zwanego również mapowaniem. Polega to na odpowiednim umiejscowieniu tekstury materiału na konkretnym modelu. Jest to dopasowanie dwuwymiarowej mapy na modelu 3D. Współrzędne mapowania określa się literami UVW, które odpowiadają za umiejscowienie w przestrzeni (U – poziom, V – pion, W – głębokość).
Zanim przystąpię do animacji postaci, należy dostosować postać do tego, aby mogła swobodnie się poruszać. Ten proces nazywany jest rigging’iem i polega na dodaniu do modelu kości i ustaleniu hierarchii między nimi. Dodaje się ograniczenia ruchu oraz manipulatory tak, aby animator w łatwy sposób mógł tworzyć animację. Ustawia się miejsca, w których znajdują się stawy i występują zgięcia. W przypadku riggingu modeli organicznych, takich jak ludzie czy zwierzęta, należy ustawić właściwości skóry i tego, jak ma się ona zachowywać przy zginaniu stawów  .
Aby wkomponować stworzoną postać 3D w film wideo, należało nagrać materiał kamerą cyfrową. Wszystkie ujęcia nagrano jednego dnia na dziedzińcu dawnego wrocławskiego więzienia miejskiego w taki sposób, aby każde z nich miało podobne oświetlenie. Z racji ograniczeń budżetowych, użyta została cyfrowa lustrzanka Nikon D3100. Jest to ogólnodostępny aparat fotograficzny z możliwością kręcenia filmów w rozdzielczości Full HD.

Następnie przechodzimy do camera trackingu, zwanego również matchmovingiem lub 3D trackingiem. Jest to proces, który polega na analizie materiału wideo w celu odtworzenia widocznej sceny w kadrze oraz położenia kamery w przestrzeni 3D. Podczas filmowania kamera może się poruszać, przechylać lub drgać. Ujęcie może być statyczne, lecz obiekty mogą się poruszać przed obiektywem.

Wysokiej jakości obrazu nie udałoby się uzyskać, gdyby nie oświetlenie sceny. Kluczową, bardzo mocną opcją silnika renderującego V-Ray są świtała. Zaawansowane algorytmy Ray Traceingu pozwalają uzyskać fotorealistyczne efekty. W moim przypadku wykorzystałem hybrydowy sposób oświetlenia, który łączy standardowe światło słoneczne VRaySun oraz VRayHDRI.
Kontynuując, przechodzę do procesu renderingu, który jest procesem tworzenia realistycznego obrazu przez komputer na podstawie dostarczonych informacji w przestrzeni 3D. Program do grafiki 3D na podstawie informacji wejściowych, takich jak:
•    opis oraz położenie obiektów geometrycznych w przestrzeni 3D,
•    kolor, typ, charakter oraz położenie źródeł światła na scenie,
•    kierunek i  położenie kamery lub obserwatora,
generuje realistyczny dwuwymiarowy obraz wyjściowy. W moim przypadku 3ds Max wraz z silnikiem renderującym V-Ray dokonuje skomplikowanych obliczeń za pomocą zaimplementowanych przez programistów algorytmów. W ten sposób program jest w stanie wygenerować fotorealistyczne obrazy z modelami odpowiednio umieszczonymi w przestrzeni 3D z zachowaniem perspektywy, z nałożonymi teksturami, cieniami, odbiciami, załamaniem światła oraz dodatkowymi efektami, takim jak mgła lub głębia ostrości.

Proces renderingu można podzielić na kilka etapów, podobnych w przypadku gier komputerowych oraz silników renderujących:
•    transformacja sceny 3D (transformacja),
•    ustawienie źródeł światła w przestrzeni,
•    rzutowanie na płaszczyznę widoku,
•    usuwanie niewidocznych płaszczyzn,
•    rasteryzacja (proces obliczania koloru każdego piksela): teksturowanie , cieniowanie, pozostałe efekty specjalne.

Postprodukcja, a właściwie w tym przypadku skupię się na compositingu (z ang. kompozycja),  jest ostatnim etapem tworzenia produkcji filmowej/reklamowej. Następuje po nagraniu materiału wideo, wyrenderowaniu animacji. Compositing polega na połączeniu przygotowanych warstw w jedną całość.  W moim przypadku jest to połączenie materiału wideo nagranego kamerą z animacją przygotowaną w 3ds Max. Jest to dość skomplikowany proces, w którym wielką sztuką jest osiągnięcie jednolitego obrazu, bez efektu odcinania się poszczególnych warstw. Polega to na wkomponowaniu animowanej postaci do poruszającego się obrazu, wraz z odpowiednim oświetleniem, odbiciami oraz cieniami. W skład tego etapu pracy wchodzi również korekcja kolorów zwana z języka angielskiego color gradingiem. Polega on na regulacji kontrastu, jasności oraz manipulacji kolorem ujęcia tak, aby dopasować je stylistycznie, nadać ten sam wygląd. Poszczególne warstwy zostały sfilmowane lub wyrenderowane w różnych warunkach oświetleniowych – w tym celu należy dopasować ich tonację na tyle dokładnie, aby widz nie zauważył różnicy, oglądając ostateczny efekt.

Jeśli chcesz uzyskać dostęp do opisu projektu, który liczy ok. 60 stron napisz do nas: nagash[at]hibox.pl.

Categories:

Be the first to comment “Animacja 3D – Juggernaut”

Copyrights 2014, hiBox Studio. All rights reserved.