Non credo ai miei occhi

A livello mondiale Sony Pictures Imageworks è all’avanguardia nella creazione di immagini digitali realistiche della figura umana al punto da rendere possibile qualsiasi simulazione nei film, nei giochi e nelle interfacce computerizzate.

In cima a un treno della ferrovia sopraelevata che sta attraversando il centro della città, un uomo mascherato con il suo costume rosso e blu si trova in una situazione difficile. Non sta solo combattendo contro uno scienziato folle che vuole ucciderlo con i suoi tentacoli robotici, ma deve anche salvare i passeggeri del treno. è un normale giorno di lavoro per il supereroe Peter Parker, meglio conosciuto come Spider Man, mentre questa impresa ha richiesto un impegno costante di alcuni mesi a un gruppo selezionato di esperti di grafica.

La sequenza di immagini è tratta da Spider Man 2, il colossal che questa estate ha portato al cinema milioni di spettatori. Guardando attentamente il personaggio malvagio, Doctor Octopus (interpretato dall’attore Alfred Molina), lo si nota ghignare e urlare in modo maniacale mentre si aggira sui lati e il tetto del treno. Successivamente, nella stessa scena, Spider Man (Tobey Maguire) perde la sua maschera nel tentativo di aggrapparsi alla carrozza del treno ed è costretto a fermarsi di colpo. Le sue espressioni facciali tradiscono una sensazione di panico e appaiono del tutto naturali.

Grazie al rapido montaggio tra le immagini del supereroe e del malvagio, il pubblico probabilmente non sospetta che i volti e le figure sullo schermo per gran parte del tempo non sono reali. Si tratta invece di costruzioni digitali create sui computer della Sony Pictures Imageworks, a Culver City, in California.

GLI ATTORI DIGITALI POSSONO LANCIARSI SUI GRATTACIELI, SFRECCIARE VELOCEMENTE SUI TRENI E SOTT’ACQUA, COINVOLGENDO EMOTIVAMENTE GLI SPETTATORI.«Abbiamo raggiunto un livello tale da poter generare al computer ogni singola cosa: dal vetro fracassato del treno a diversi tipi di edifici, strade e persone», dice Mark Sagar, supervisore della grafica per Spider Man 2 e responsabile del gruppo interno di Imageworks che si occupa di volti digitali umani. Egli parla della sequenza del treno come se fosse un gioco sullo schermo del computer. «Guardate cosa fa la cinecamera. Qui scorre rapidamente lungo il treno, poi si infila sotto i protagonisti, li riprende in primo piano e infine in campo lungo. Come sarebbe possibile tutto ciò con una cinecamera vera?» Ma i volti digitali delle persone sono soltanto l’ultimo pezzo cruciale di questo puzzle. In passato il montaggio tra le sequenze girate dai diversi attori in carne e ossa e quelle digitali richiedeva cinecamere vere, il contributo delle controfigure e uno sforzo considerevole per far combaciare le immagini reali e quelle digitali; la capacità di generare al computer qualsiasi cosa, inclusi i volti umani, apre la strada a una lunga serie di opportunità creative.

I volti digitali fotorealistici – quelli che possono sembrare reali in immagini fisse o sul grande schermo – rappresentano una delle ultime frontiere della grafica al computer. Fino a poco tempo fa i volti digitali apparivano poco credibili se esaminati attentamente ed erano stati quindi destinati a rapidi tagli e a scene di sfondo. Il problema è che siamo straordinariamente attenti all’aspetto dei volti umani; è molto più semplice ingannare le persone con un T. rex generato al computer che con un umano digitale. Ma i progressi nella riproduzione del tessuto cutaneo, nell’illuminazione delle scene digitali (si veda Il signore delle luci di Hollywood a pag 74) e nell’uso del montaggio per utilizzare i riferimenti agli attori veri consentono ora agli artisti e ai programmatori di controllare la struttura e il movimento di ogni minuscolo frammento di pixel in un volto computerizzato. Il gruppo di Sony spera che gli spettatori non colgano le differenze tra Tobey Maguire e il suo doppione digitale, consentendo all’azienda di raggiungere un risultato storico: un livello di verosimiglianza mai visto prima.

La posta in gioco è alta. Gli effetti digitali rappresentano un giro d’affari di miliardi di dollari e in rapida crescita; al momento, il costo di un tipico film d’azione si aggira sui 150 milioni di dollari, di cui la metà finisce nelle mani delle aziende che curano gli effetti speciali. In effetti Spider Man 2 è solo un esempio dell’uso crescente da parte di Hollywood della ricerca grafica d’avanguardia per creare attori digitali più credibili, dalla controfigura di Neo e la moltitudine di agenti Smith nei film della serie Matrix a Gollum della serie Il signore degli anelli. Sono finiti i tempi in cui l’industria si divertiva a rimpiazzare gli attori con i computer (la premessa del film del 2002 S1m0ne). E Sony Pictures Imageworks, fondata nel 1992 e con oltre 40 film a soggetto a suo credito, è l’avanguardia tra le aziende degli effetti speciali che si contendono i contratti con i grandi studi cinematografici (si veda Creatori di volti a pag. 72).

Ma il vantaggio reale degli attori digitali non consiste nel rimpiazzare quelli veri, ma nel permettere di creare scene che portano lo spettatore in luoghi dove nessun attore reale o attrezzatura per le riprese potrebbe arrivare. «Ciò fornisce ai registi più flessibilità e consente loro di realizzare movimenti impossibili con controfigure umane», afferma Scott Stokdyk, supervisore degli effetti visivi di Imageworks e responsabile della serie di Spider Man. «In passato registi e tecnici del montaggio hanno in genere manipolato con tagli i movimenti rapidi e gli angoli di ripresa per rendere credibile una storia», spiega Stokdyk. «Ora non hanno più questo tipo di limiti». I registi possono quindi seguire dovunque i loro attori artificiali sia quando si lanciano dai grattacieli sia quando schivano i proiettili. Inoltre si possono ringiovanire o invecchiare digitalmente gli attori senza bisogno di passare ore a truccarli e far tornare digitalmente in vita stelle cinematografiche decedute da tempo.

I film sono solo l’inizio. Le tecniche per la creazione di umani digitali stanno allargando le frontiere della grafica al computer e delle interfacce. Questi tentativi potrebbero portare a simulazioni per la formazione medica del tutto realistiche, ad avatar verosimili per le e-mail e le chat room su Internet e in breve tempo a personaggi molto più credibili nei giochi e nei film interattivi. La tecnologia, sostiene Sagar, «è ormai pronta per il grande pubblico».

VOLTI VIRTUALI

Mark Sagar è sempre stato combattuto tra arte e scienza. Dopo l’università egli ha passato tre anni a girare il mondo, disegnando ritratti dal vivo. Ma il richiamo della tecnologia lo ha fatto tornare all’università nella sua nativa Nuova Zelanda per studiare ingegneria. «Non avrei mai pensato di passare anni della mia vita a studiare il volto umano», egli confida, seduto nel suo ufficio a Imageworks stipato di libri e articoli specialistici sulla percezione visiva.

MALGRADO I MILIONI DI DOLLARI INVESTITI NELLA NUOVA TECNOLOGIA, I VOLTI DIGITALI UMANI HANNO DA PERCORRERE ANCORA MOLTA STRADA.

Ascoltare Sagar che descrive il volto umano come «un segnalatore multicanale» fa capire che il suo lato tecnoscientifico ha avuto la meglio. La comprensione scientifica di ciò che si cela in un volto, egli dice, gli ha permesso di far esprimere messaggi al personaggio digitale in modo molto più efficace sullo schermo. Espressioni come gli occhi bassi, un sopracciglio aggrottato o un labbro arricciato tradiscono uno stato emotivo della persona e forniscono indizi sulle sue intenzioni.

Il cammino hollywoodiano di Sagar è iniziato quasi per caso. A metà degli anni 1990, con una laurea dell’Università di Auckland e un titolo di dottore di ricerca al MIT, egli ha sviluppato simulazioni computerizzate del volto e dell’occhio umano per aiutare i medici ad apprendere le tecniche chirurgiche. Le sue simulazioni sembravano così reali che un gruppo di imprenditori dot-com lo convinse a partecipare alla fondazione di una startup grafica chiamata LifeFX, a Newton, in Massachusetts, per commercializzare il software che chiunque, dai produttori cinematografici alle aziende Web e ai fornitori di servizi e-mail, avrebbe utilizzato per produrre immagini fotorealistiche di persone.

Sagar divenne subito un’eminente autorità nel settore dei volti digitali per l’intrattenimento. Nel 1999 arrivò a Los Angeles per lavorare alle animazioni di volti generati al computer per il cinema, tra cui un film interpretato da Jim Carrey. Paul Debevec, un ricercatore grafico che ha legato il suo nome alla creazione di ambienti virtuali e di tecniche avanzate di illuminazione digitale, vide i film di Sagar a un convegno e ne rimase affascinato: non aveva mai visto volti artificiali che sembravano così convincenti da vicino. «Quello fu il momento in cui ho creduto realmente che la grafica al computer di un volto fotorealistico sarebbe diventata una realtà entro i prossimi cinque anni», racconta Debevec, che è ora all’Institute for Creative Technologies dell’Università della Southern California (si veda a pag. 74).

I due scienziati diedero vita a una collaborazione, usando le tecniche d’illuminazione di Debevec per dare credibilità ai volti digitali di Sagar; una combinazione che li catapultò velocemente all’avanguardia nel settore. L’unione tra simulazione di un volto e illuminazione adeguata risultò vincente. A differenza delle precedenti simulazioni al computer che apparivano fuori luogo in contesti differenti e dovevano essere ridefinite a più riprese, i volti di Debevec e Sagar si adattano alle luci di qualsiasi scena. Ciò succede perché sono state realizzati usando una ricca banca dati di volti reali fotografati da angoli differenti e illuminati con diverse combinazioni di luce. Nel 2002, alla chiusura di LifeFX, Imageworks prese al volo Sagar proprio per la sua conoscenza dei volti.

Egli cominciò immediatamente a lavorare al primo lungometraggio che sperimentava queste tecniche: Spider Man 2. Le scene d’azione del film richiesero simulazioni dettagliate ed espressive dei volti di attori noti, che a parere di Sagar rappresentano un problema particolarmente spinoso. Gli spettatori non si limitano a rifiutare immediatamente i surrogati dei volti umani, ma sono particolarmente sensibili ai volti che già conoscono; qualsiasi discrepanza tra il digitale e il reale viene percepito come una forma di inganno. Per rendere credibile la simulazione, i ricercatori hanno bisogno di un metraggio della pellicola con continui riferimenti agli attori veri ripresi in differenti condizioni di illuminazione.

Pertanto Maguire e Molina hanno passato un giorno nel laboratorio di Debevec. Con la supervisione del programmatore della ricerca Tim Hawkins, si sono seduti in un impianto speciale denominato «palco delle luci» mentre quattro fotocamere fisse catturavano centinaia di immagini delle loro teste e dei loro volti con una larga gamma di espressioni riprese da ogni angolazione possibile e illuminate con luci intermittenti. Sono stati utilizzati anche scansioni laser e modelli in gesso delle teste e dei volti degli attori, in modo da poter costruire al computer modelli digitali 3-D ad alta risoluzione delle loro sembianze.

A Imageworks, Sagar e il suo gruppo hanno creato un software «amichevole» che ha consentito a decine di attori di usare i gigabyte dei dati dell’immagine senza rimanere impantanati nei dettagli tecnici. Per far sembrare reale la sequenza del treno, per esempio, il software di Sagar ha dapprima suddiviso le immagini dell’allestimento di Debevec in composizioni che combaciavano con la luce del mondo reale sul set del film, poi ha applicato le composizioni a modelli computerizzati tridimensionali degli attori. Per il movimento dei volti, gli animatori hanno manipolato i modelli fotogramma per fotogramma, usando le immagini esistenti e i video degli attori come una rudimentale guida. Il software ha calcolato i cambiamenti d’illuminazione sulla base delle modificazioni dei modelli facciali e si è comportato di conseguenza anche nel caso della pelle digitale. Il risultato è stato che i sosia artificiali di Maguire e Molina (montati alternativamente con gli attori in carne e ossa) sfrecciavano nell’aria, tra i grattacieli, sui treni e sott’acqua, coinvolgendo emotivamente il pubblico.

Imageworks è un ottimo esempio di come le aziende di effetti speciali stanno integrando la nuova ricerca nei loro canali di produzione molto più rapidamente di quanto accadesse solo qualche anno fa (mentre gli spettatori potrebbero essere impressionati da ciò che si vede ultimamente nelle multisale, la tecnologia grafica di base nei film non è cambiata molto negli anni 1990). «Prima il tempo di latenza era molto più lungo. Un prodotto veniva sviluppato, ma bisognava aspettare una decina d’anni prima che un’azienda di software lo commercializzasse», sostiene J. P. Lewis, un esperto di grafica e animazione del laboratorio Computer Graphics and Immersive Technology dell’Università della Southern California. «Credo che ora le aziende siano molto più consapevoli della ricerca e tendano a sfruttarla con maggiore rapidità.

Questa primavera passeggiando lungo gli scuri corridoi di Imageworks era facile incontrare il team di esperti impegnato a dare gli ultimi ritocchi agli oltre 800 effetti speciali prodotti per Spider Man 2. è un gruppo giovane, alla moda, che sfoggia occhiali eleganti e si passa di mano in mano foto, particolari delle riprese e un cast di volti che assomigliano a Tobey Maguire. Dal giorno che ha visionato l’ultima scena del film, il supervisore degli effetti visivi Stokdyk si lamenta che non c’è più tempo. La sfida più grande, egli dice, è stata fondere parti reali e digitali di Molina, mettere insieme il suo costume «Doc Ock» e lo stile fumettistico. «Essere all’altezza della realtà, egli sospira, «è un’impresa quasi impossibile».

VIRTUALE MA SEMPRE PIù REALE

In realtà, malgrado i milioni di dollari investiti nella nuova tecnologia, i volti digitali umani hanno ancora da percorrere molta strada. All’apparenza rimangono da fare solo piccoli passi – rendere il movimento oculare meno robotico, riuscire a riprodurre cambiamenti nell’afflusso di sangue per rappresentare il rossore delle guance, far corrugare la pelle nel modo giusto durante un sorriso – ma tutti insieme hanno un grande peso. «L’ultimo 20 per cento potrebbe prendere l’80 per cento del nostro tempo per la messa a punto, ma siamo ormai saldamente nell’ultimo 20 per cento», afferma Darin Grant, direttore della tecnologia a Digital Domain, a Venice, in California, che questa estate ha realizzato le animazioni del protagonista del film Io, Robot.

In realtà sarà il successo commerciale a decidere il valore di questi sosia digitali. «Il test finale della validità di ciò che facciamo è cosa appare sullo schermo e come diventa in fase di produzione», sostiene Grant. Il suo collega Brad Parker, supervisore degli effetti visivi e direttore di Digital Domain, ritiene che gli umani digitali saranno un ottimo affare per i produttori cinematografici e per la comunità dei grafici. «è la gallina dalle uova d’oro», egli commenta. «Mette insieme tutto ciò che è complesso nella grafica al computer».

Perché sia un problema così serio – quello che i nostri occhi rivelano come «errato» in un umano digitale – non è ancora ben chiaro. Ma Lewis e Ulrich Neumann, ricercatori di grafica all’Università della Southern California, stanno cercando di scoprirlo. In esperimenti recenti questo gruppo ha mostrato rapide sequenze di volti reali e digitali ad alcuni volontari per vedere se riuscivano a cogliere le differenze. I risultati sono stati sorprendenti e per molti versi frustranti. «Abbiamo passato un anno a lavorare su questi volti, ma non siamo riusciti a ingannare il pubblico neanche per un quarto di secondo», confida Lewis. Egli prevede che questi tentativi porteranno a modelli statistici del comportamento reale dei volti umani, che consentiranno la produzione di strumenti software che gli artisti potranno usare per creare personaggi che aumentano di credibilità muovendo gli occhi in un certo modo o modificando una particolare espressione.

Questi progressi potrebbero avere conseguenze significative. Secondo Steve Sullivan, direttore di ricerca e sviluppo di Industrial Light and Magic, a San Rafael, in California, «Tra dieci anni ci guarderemo alle spalle e diremo che i sosia digitali attuali sono incredibilmente primitivi».

Non saranno comunque solo i film a subire una trasformazione. Gli stessi strumenti di simulazione grafica che i produttori cinematografici stanno iniziando a padroneggiare contribuiranno ad alimentare il nuovo mercato dei volti digitali: i videogiochi. Quelli ora in circolazione fanno sfoggio di creature e scenari fantastici, ma i loro personaggi umani non sono affatto fotorealistici. Non è pensabile programmare tutte le angolature e le espressioni che rendono credibile un gioco interattivo a più livelli.

Ma a questo punto entra in scena George Borshukov, un informatico che ha progettato gli umani digitali d’avanguardia per i film della serie Matrix (tutti gli Smith in Reloaded e Revolutions sono del suo gruppo), cha sta applicando la tecnologia dei volti ai giochi. Ex supervisore della tecnologia di ESC Entertainment, ad Alameda, in California, Borshukov si è di recente trasferito all’azienda di videogiochi Electronic Arts, a Redwood City, in California. Egli sostiene che l’hardware per i giochi di prossima generazione renderà possibile sfruttare tecniche per la creazione di volti fotorealistici in tempo reale, ma che sono prima necessarie operazioni di messa a punto e compressione dati.

Il problema è che con i giochi tutto accade in tempi rapidissimi, mentre ancor oggi ci vogliono alcune ore per realizzare un singolo fotogramma dei più avanzati volti digitali in circolazione. Ciò è possibile se si hanno a disposizione mesi per produrre le scene, come in un film. Invece, in un gioco o in un film interattivo una particolare immagine potrebbe non esistere fino a quando l’utente non la richiede con il suo joystick. Per rendere normale questo procedimento ci vorrebbe un software migliaia di volte più rapido.

Entro cinque anni, dicono gli esperti, un ibrido tra un gioco e un film potrebbe consentire ai giocatori/spettatori di ideare e dirigere i loro film e persino di partecipare in prima persona all’azione. Si potrebbe dapprima creare un cast del film scansionando fotografie di persone reali – voi e i vostri amici, per esempio – e utilizzare un software per la produzione di modelli 3-D fotorealistici di queste persone. Poi, in tempo reale, ci si potrebbe improvvisare registi grazie a un controller portatile o a una tastiera, facendo operazioni simili al zoom della cinecamera sui personaggi per far correre il protagonista in una determinata direzione. L’intrattenimento interattivo, dice Borshukov, «è il vero futuro».

LE APPLICAZIONI FUTURE

Ritornando a Imageworks, una sequela senza fine di attività sta travolgendo Mark Sagar. Gli artisti sono alle prese con un altro progetto con attori digitali, The Polar Express tra poco sugli schermi, basato su un popolare libro per ragazzi. Ma Sagar, che non è direttamente coinvolto in questo tentativo, è alla ricerca di un approccio più avanzato ai volti digitali basato su importanti principi scientifici. «Vedo il lavoro attuale come una fase di passaggio in cui non abbiamo ancora preso in considerazione una grande quantità di dati», egli spiega. «Alla fine ci sarà un uso generalizzato di modelli matematici relativi a come si muovono le cose e a come riflettono la luce».

Sagar prevede anche applicazioni sempre più estese di umani digitali nella grafica medica, nelle simulazioni per i corsi di formazione per la protezione civile e nelle interfacce uomo/computer che potrebbero aiutare gli utenti a comunicare più efficacemente con le macchine e con altre persone. Al di fuori dell’industria dell’intrattenimento, grandi aziende come Microsoft e Honda stanno portando avanti ricerche sulla grafica avanzata e la modellazione umana, incluso un software che potrebbe consentire al semplice utente di creare personaggi virtuali realistici e avatar digitali basati su una semplice foto. Algoritmi collegati aiuteranno i computer a riconoscere i volti e a interpretare le espressioni, sia per ragioni di sicurezza sia per prevedere i bisogni dell’utente.

«Siamo in una fase storica decisiva in cui cominciamo a essere in grado di simulare gli umani fino all’ultimo dettaglio», afferma Sagar. Nella sua affermazione c’è una buona dose di ironia paradossale. Quando gli umani digitali saranno perfetti, risulteranno indistinguibili da quelli reali; allora gli spettatori non si renderanno neanche conto che artisti e scienziati come Sagar hanno cambiato il volto dell’intrattenimento e della società.

Gregory T. Huang è redattore associato di «Technology Review», edizione americana.

L’ARTEFICE DI MATRIX

Il vincitore dell’Academy Award John Gaeta, supervisore degli effetti visivi della trilogia di Matrix, ritiene che gli attori digitali siano destinati a lasciare il segno sul cinema interattivo e la realtà virtuale.

La tecnologia per creare perfetti sosia digitali di stelle del cinema è ormai matura?

è tecnicamente possibile, ma solo con un sostanziale incremento di ricerche accurate. Stiamo solo grattando la superficie per quanto riguarda la simulazione delle diverse sfaccettature del volto umano quando si prova un’emozione o si parla. Per noi un film è come un teatro di guerra. Il nostro compito è pensare nel modo più concreto possibile e agire velocemente.

Gli attori digitali significano una nuova era nella produzione cinematografica?

Sì, con qualche limite. Non ci sarà probabilmente mai il bisogno di fare Shakespeare in Love con attori virtuali. Ma in film di fantascienza, psicologici o d’azione si possono utilizzare applicazioni creative interessanti delle diverse angolazioni di ripresa di una cinecamera onnipotente, come la percezione dell’altezza, in forme sconosciute agli attuali standard cinematografici. La possibilità di avere a disposizione attori e ambienti virtuali permette di muovere la cinecamera senza alcuna limitazione.

Qual è il futuro degli attori digitali nel settore dell’intrattenimento?

Un nuovo tipo di prodotto è in arrivo: il cinema interattivo. Lo spettatore non si limiterà a un ruolo passivo, ma sarà in grado di esplorare l’ambiente in cui viene inserita ogni singola scena. Potrà osservare l’azione da qualsiasi prospettiva scelga e il film gli sembrerà realistico come mai prima; per realizzare tutto ciò, ci servono attori virtuali e progetti di produzione virtuali. Allo stesso tempo saranno presenti giochi a immersione totale e simulazioni complesse degli eventi e dei luoghi del mondo reale. Le persone interagiranno in questi mondi grazie agli avatar. I personaggi più suggestivi saranno quelli basati sulla analisi e proiezione di sentimenti e identità di persone reali. Questo sarà senza alcun dubbio il futuro vicino e a medio termine degli attori virtuali.

Related Posts
Total
0
Share