Przełomowe techniki renderowania skóry mają wyprowadzić grafikę 3D z doliny niesamowitości
Dolina niesamowitości, czyli problem z z odbiorem przezobserwatora sztucznych wizerunków człowieka, które są bardzo podobnedo żywych ludzi – męczy zarówno projektantów robotów jak itwórców gier wideo. Niewielkie szczegóły, odróżniające niemalperfekcyjne repliki czy wizerunki ludzkiego ciała od żywych istot,okazywały się wywoływać uczucia dyskomfortu, a nawet strachu.Rozwiązania są dwa: albo iść w stronę umownych, komiksowychreprezentacji ludzkich form, albo też spróbować przekroczyć dolinęniesamowitości, tworząc perfekcyjną replikę ludzkiej postaci.Niedawno pisaliśmy o pomyśle na zapewnienie takiego dalekoposuniętego realizmu przy renderowaniuwłosów w grafice 3D, a teraz wypada wspomnieć o równie istotnymosiągnięciu, dotyczącym ludzkiej skóry.Zespół badaczy z University of South California, podprzewodnictwem Abhijeeta Ghosha i Paula Devebeca, opracował metodęzwiększenia realizmu twarzy w grafice komputerowej, która skupia sięna jednym z najtrudniejszych wyzwań: wiarygodnym odwzorowaniuludzkiej skóry. Do tej pory modelowanie odbić światła od tejniezwykle skomplikowanej powierzchni, dalekiej przecież odjednolitości, pokrytej siecią drobnych zmarszczek, cebulek włosów,prześwitujących naczyń krwionośnych, a czasem (o zgrozo!) nawetpryszczy, było bardzo trudne, a efekty, jak wiemy z nawet najlepszychwizualnie filmów czy gier aspirujących do fotorealizmu, pozostawiaływiele do życzenia.[img=face-render-opener]Opracowana przez Ghosha i Devebeca metoda to wielki skok naprzód wtej dziedzinie. Zbudowali oni wysoce precyzyjny trójwymiarowy modelskóry, wykorzystujący fotograficzne próbki z okolic podbródka,policzków i czoła, w rozdzielczości pozwalającej rozróżnić obiekty orozmiarach dziesięciu mikrometrów. W modelu tym każda komórka skóryzajmowała trzy piksele. Zamiast zaś modelować pojedynczy promieńświatła odbijający się od złożonej struktury takiego modelu,podzielili światło na cztery promienie, z których jeden odbija się odnaskórka, a pozostałe trzy wnikają w skórę na różne głębokości,ulegając rozproszeniu przed odbiciem. W efekcie uzyskano fragmentrealistycznie wyglądającej skóry, wraz z porami i mikroskopijnymizmarszczkami. Fragment ten został zwielokrotniony, wypełniającpowierzchnię całej wymodelowanej twarzy. Jak możecie zobaczyć naponiższym wideo, efekt jest naprawdę spektakularny:Rozwiązanie to ma zawitać zarówno do kina jak i gier. MetodaGhosha i Devebeca, ma pozwolić na przyspieszenie tworzenia teksturskóry na potrzeby filmów, gdzie dziś robi się to ręcznie (np. w„Awatarze” Jamesa Camerona graficy mozolnie dodawalidetale powierzchni skóry do ciał niebieskich Na'vi). W konsekwencjitechniki takie powinny stać się dostępne także dla filmów omniejszych budżetach. Z kolei w świecie gier pracami badaczy z USCzainteresowało się Activision: wspólnie pracują nad projektem DigitalIra, mającym na celu stworzenie oprogramowania do generowaniafotorealistycznych wirtualnych aktorów, dysponując przy tym mocąobliczeniową nie superkomputerów, a „zaledwie”współczesnych konsol.Ciekawostką może być też zainteresowanie branży kosmetycznej –Avon finansuje badania Ghosha, mające na celu ustalenie, czy takiewirtualne skóry nie mogą być wykorzystane do symulacji zachowaniaróżnych środków do makijażu, tak by w przyszłości wirtualny doradcamógł klientce pokazać, jak będzie wyglądała po wykorzystaniu danegopodkładu, cienia czy szminki.
09.07.2013 12:24