Il sistema Pixar di Christian Uva Ed. Il Mulino 2017
Devo ammettere che l’acquisto di questo libro è stato quasi impulsivo, non riuscendo a trovare recensioni o estratti che potessero disperdere alcune mie perplessità su di un titolo italiano dedicato alla genesi della grande industria californiana Pixar.
Il libro si presenta molto maneggevole, di dimensioni ridotte, facile da inserire in qualsiasi borsa per portarlo nella nostra quotidianità. Le pagine risultano di grammatura molto bassa, lasciando intravedere il testo retrostante, ma considerata la natura descrittiva del contenuto, non lo considero un grosso problema, anzi, ne caratterizza il peso ridotto e la sua economicità.
Diciamo subito che il testo non è di natura tecnica, ma vuole descrivere la nascita della Pixar analizzandone il contesto storico e sociale che hanno motivato le aspettative imprenditoriali e produttive dei vari soggetti coinvolti direttamente ed indirettamente alla nascita del brand.
La lettura è abbastanza scorrevole, soprattutto nella prima metà del libro, con alcuni interessanti collegamenti semantici fra l’estetica grafica, utilizzata nelle produzioni Pixar, ed una ideologia all’immaginazione culturale che animava gli animi in quell’epoca, con ” […] una visione dello zeitgeist mito-politico e mito-poetico”. L’idea che una scelta tecnica, un algoritmo o una determinata risoluzione grafica, possa essere ricondotta o collegata in qualche modo ad un tentativo di provocazione immaginaria subordinandola al fotorealismo, mi ha affascinato, consentendomi una visione olistica di una rappresentatività digitale misurata.
Devo ammettere però che la seconda metà è stata portata a termine con fatica, forse perché troppo concentrata sulla ricerca, a volte – a mio avviso – forzata, di connotazioni identitarie fra le produzioni cinematografiche e le condizioni sociali che attraversavano quegli anni, pur riconoscendo all’autore il merito di conservare la natura argomentativa e analitica nello scritto.
Tentando di esprimere un giudizio complessivo, reputerei il libro come un interessante tentativo di sintonizzare la nascita e le scelte tecnologiche di una delle più straordinaria industrie cinematografiche di tutti i tempi, all’interno di un progetto culturale espressione di un preciso contesto identitario e sociale, che ne ha – per quanto afferma l’autore – caratterizzato fortemente le sue connotazioni iconiche.
Sappiamo che la realtà virtuale in tutte le sue declinazioni (mixed e augmented) sta subendo un ennesimo rallentamento a causa dell’ancora prematuro sviluppo tecnologico dei dispositivi di fruizione. Questi dispositivi risultano ancora costosi, ingombranti, poco performanti e non in grado ancora di azzerare gli effetti del cosiddetto motion sickness in un utilizzo continuativo. Tali limitazioni hanno portato ad un forte rallentamento nello sviluppo di applicativi, soprattutto nella parte terminale della filiera AEC, quella che riguarda la posa in opera e la cantierizzazione. Infatti, sebbene ormai assistiamo da diversi anni ad una maturazione nello sviluppo di ambienti di progettazione e fruizione immersiva (soprattutto in ambito VR), di fatto sono ancora rari i casi di utilizzo concreto da parte di imprese o gestori. Come ho avuto modo di affrontare già nel mio podcast di qualche tempo fa (ascolta il podcast), ritengo che questo limite non permetta un reale utilizzo delle potenzialità che la realtà immersiva può offrire in ambito ingegneristico, relegando tali esperienze ad eventi espositivi o workflow paralleli di veste puramente sperimentale.
https://www.youtube.com/watch?v=e8zSWXAYeIU
VisualiLive Demo. Visualizzazione armatura virtuale in cantiere
In tale contesto, viene alla luce la notizia che Unity (famoso ambiente di sviluppo di gaming) ha acquisito la società VisualLive, azienda statunitense che ha diversi anni sviluppa applicazioni di augmented e mixed reality in ambito AEC con supporto dei dispositivi Microsoft HoloLens e mobile. Questa azienda, si è concentrata sullo sviluppo di applicativi qr-code based che consentono la “sovrapposizione” di modelli ed informazioni a contesti reali tramite l’ancoraggio supportato da tecnologie di tracking e l’aggiornamento in tempo reale delle informazioni progettuali, che vengono così visualizzate dagli operatori e integrate tramite plugin all’interno di software come Revit e Navisworks. Questa acquisizione non è l’unica in casa Unity che evidenzia la rotta intrapresa dall’ambiente di sviluppo, che mira a spostare il proprio bacino di utilizzatori verso la fascia di professionisti che vogliono integrare nel loro workflow esperienze interattive, immersive ed integrate. Si può immaginare, ad esempio, la possibilità di inserire un modello BIM all’interno di uno spazio reale per valutarne la fattibilità o le interferenze con il costruito, agevolando la fase di lavorazione ai tecnici dotati di dispositivi AR/MR.
VisualLive demo
Queste integrazioni tra software, assieme allo sviluppo di nuovi dispositivi wearable più performanti, segnano in modo evidente la volontà di uno sviluppo simulativo che riesca a coprire tutti gli step di lavorazione di un progetto, dal concept alla cantierizzazione, dalla progettazione alla verifica. Solo così si potrà arrivare all’ambita integrazione virtuale che le varie software house pubblicizzano ormai da diversi anni nei loro spot. Non ci resta che attendere e…provare.
La misura del mondo di Daniel Kehlmann Ed. Universale Economica Feltrinelli
Mi sono avvicinato a questo libro con un po’ di timore, non sapendo bene se mi sarei trovato in un romanzo storico o in una biografia che pedissequamente seguisse la cronologia di vita dei personaggi.
E invece, con mio piacere, ho scoperto un racconto avvincente, che mi ha portato con cautela nelle scienze del XIX sec tramite la vita di due protagonisti: Alexander von Humboldt e Carl Friedrich Gauss. Due personalità complementari, due vite apparentemente parallele che trovano, al termine, un punto di raccordo in un finale inatteso.
Mi ha entusiasmato ritrovarmi nel romantico approccio scientifico che muoveva la ricerca dell’epoca. Nonostante i limiti tecnologici e geopolitici del tempo, i protagonisti trovano – ciascuno a modo loro – il modo di seguire il proprio istinto, la propria scienza, con quella ingenua curiosità che univa le menti più eccelse in conviviali salotti, nella convinzione inscalfibile della propria ragione. Anche se possono apparire nelle prime pagine come burberi misantropi accecati dalla propria gloria, gli scienziati si riveleranno incautamente introspettivi seppure rigidamente impostati nelle formalità e archetipi della società.
Mentre Gauss, con la sua fragilità emotiva è alla costante ricerca di un sostegno al suo fianco che lo sollevi dalle inezie organizzative della sua monotona quotidianità e gli consenta di concentrarsi sulle teorie matematiche che di volta in volta accendono il suo interesse, sfuggendo alla mondanità della fama, l’esploratore Humboldt non riesce a trovare pace nella staticità di un luogo, di un prestigioso incarico, che non lo porti in un costante viaggio a scoprire il mondo, catalogando e misurando la realtà in ogni luogo, mettendosi in costante competizione con i propri limiti mentali e fisici. E’ proprio in questa apparente contrapposizione di atteggiamenti che i due protagonisti presentano al lettore le proprie motivazioni su come ci si dovrebbe approcciare alla vita scientifica, con quella vocazione quasi trascendentale che – solo alla fine del libro – inizia a trasparire fra i paragrafi.
Sebbene entrambi concordino sul fatto che la scienza debba misurare il mondo ed i fatti, si contrappongono nella scala in cui cercano tale approccio. Gauss chiuso staticamente all’interno di locali di misurazione mentre Humboldt in costante viaggio tra impervie e proibitive vie nel mondo con al seguito il fedele Aimé Bonpland, la cui figura viene messa costantemente in ombra dalla personalità predominante del barone tedesco.
Consiglierei questa lettura a coloro che vogliono assaporare l’approccio romantico, lento, che muoveva la ricerca scientifica in quei secoli, segnata da quella sorta di cavalleresca audacia che troviamo solo nei pensatori di quell’epoca. Oggi credo faccia bene evocare ogni tanto queste storie, per cercare anche una rinnovata lentezza a cui la ragione deve ambire, offrendogli la serenità per trovare quelle associazioni di pensiero che hanno caratterizzato le scienze dell’epoca, collegando etica e scienza in un approccio olistico ed entropatico.
Quando parliamo di modellazione di edifici storici in BIM, si genera sempre un po’ di preoccupazione per come modellare le irregolarità morfologiche che contraddistinguono gli stili degli edifici più antichi. La modellazione BIM e più in generale la modellazione tridimensionale parametrica, impone delle rigidità costruttive che spesso non agevolano la geometrizzazione degli elementi costruttivi di edifici storici. A questo si aggiunge il difficile connubio tra livello di dettaglio geometrico (LOG) e la coerenza semantica indispensabile all’inserimento informativo nel modello.
Alcuni prediligono l’approccio che tende a riprodurre pedissequamente la forma degli elementi tramite l’utilizzo di componenti locali o di mesh ricavate da rilievi laser. Questa modalità, però, pur consentendo maggiore espressività geometrica, esclude una serie di informazioni attribuibili invece agli elementi di sistema. Entrando nello specifico, potremmo affermare che il metodo più “corretto” per la modellazione delle volte e delle cupole, dovrebbe prevedere l’utilizzo delle famiglie di sistema (pavimenti, muri, tetti) correttamente configurati anche tramite l’ausilio della loro stratigrafia. Finché si tratta di volte semplici (come le volte a botte regolari) possiamo utilizzare lo strumento TETTO DA ESTRUSIONE, ma quando abbiamo a che fare con costruzioni più complesse ed articolate, allora ci possiamo scontrare con i limiti dei comandi di generazione offerti da Revit. Una strategia per aggirare tali limitazioni può prevedere l’utilizzo delle masse locali.
All’interno di Revit le masse locali sono finalizzate prevalentemente allo studio concettuale e volumetrico del progetto, offrendo libertà nella creazione di tale forme e permettendo la conversione delle superfici in tetti, pavimenti e muri. Sfruttando questa possibilità, possiamo importare come massa locale un file DWG contenente delle superfici 3D che riproducono le superfici delle volte o delle cupole che intendiamo modellare e successivamente, in Revit, associare a tali elementi dei pavimenti, muri o tetti. Durante l’associazione di questi elementi, possiamo anche definire l’ubicazione rispetto alla superficie dell’intradosso o estradosso del pacchetto stratigrafico.
Per generare questo superfici 3D, possiamo utilizzare qualsiasi programma. In questo caso, ho voluto individuare un flusso di lavoro partendo da Autocad, perchè software largamente conosciuto ed utilizzato in ambito AEC ed inoltre perché offre comandi CAD che consentono una facile integrazione delle geometrie generative.
Sono diversi i formati che Revit riconosce all’interno del processo di importazione in una massa locale: DWG, DXF, SAT, SKP, 3DM e DGN
Questo approccio, ovviamente, non è privo di limitazioni e criticità. Ad esempio, stiamo attualmente conducendo delle sperimentazioni per trovare delle modalità di creazione funzionale per i rinfianchi delle volte o, ad esempio, per risolvere alcuni problemi di generazione dei tetti che Revit impone quando le geometrie risultano troppo complesse.
Non va dimenticato, che nell’approccio con metodologia BIM la geometria deve coniugarsi sempre alle necessità informative dettate dalla committenza o dalle finalità progettuali.
Per approfondire tale approccio, ho realizzato dei tutorial in cui costruisco alcune volte e cupole partendo da Autocad fino a Revit. (VEDI TUTORIAL SUL CANALE YOUTUBE )
Riportare in vita foto d’epoca. Questo è il nuovo servizio pubblicato da MyHeritage che sicuramente troverà eco nei social e che susciterà la curiosità di molti appassionati. Andando sul sito https://www.myheritage.it/deep-nostalgia è possibile, dopo una registrazione gratuita, caricare una qualsiasi immagine di un volto umano (anche di nostri cari defunti…) per vederne una piccola animazione online.
Il servizio Deep Nostalgia di myheritage.it
Se tale funzionalità ha ovviamente l’obiettivo di attirare clienti al sito che riunisce appassionati di genealogia (oltre a possibili altre finalità di data recording di immagini caricate) in realtà porta alla luce del pubblico generalista una importante start-up che in questi ultimi anni ha studiato e implementato importanti algoritmi basati sul face-recognition.
Prima di introdurla, cercherò di fare una breve sintesi su un argomento sicuramente molto vasto (sia tecnicamente che eticamente) a cui però dobbiamo in qualche modo approcciarci anche per raggiungere una certa consapevolezza dei sistemi che usiamo quotidianamente.
Face recognition e privacy
Con la diffusione sempre più capillare delle tecniche di face recognition applicate nei settori più disparati, si sta portando alla luce una problematica legata alla conservazione e all’utilizzo di questi dati biometrici conservati dalle società fornitrici di servizi che, se non utilizzati in modo appropriato, possono diventare materiale utile per il tracciamento e il furto della nostra identità. Per sottolineare l’importanza della conservazione di tali dati, basti immaginare che, a differenza di altri sistemi di controllo di accesso, in caso di violazione e compromissione dei nostri dati biometrici, questi non non possono essere modificati o azzerati, come avverrebbe in caso di semplici password.
Ma pensiamo anche i servizi non prettamente legati all’autenticazione, come ad esempio le applicazioni di smart-cities, traffic monitoring, telecamere di video-sorveglianza, ecc. Tutte queste fonti di registrazione riversano il loro flusso dati in archivi digitali che, giorno per giorno, conterranno migliaia, anzi milioni, di dati biometrici di persone che sono state – a volte addirittura a loro insaputa – registrate (e quindi potenzialmente identificabili). Considerato questo contesto, le varie policy internazionali (fra cui il nostro GDPR) stanno includendo maggiore tutela e consapevolezza per questa tipologia di dati, classificandoli in sezioni specifiche all’interno dei propri regolamenti, cercando di dare massima tutela proprio a causa della natura fortemente personale di tali informazioni.
Tra le varie società che operano in questo contesto, troviamo una società israeliana chiamata D-ID che ha concentrato il suo core-business proprio sullo studio di algoritmi di anonimizzazione biometrica e in particolare implementando tecniche di de-Identification basate sul face-recognition.
Le due foto, pur sembrando del tutto identiche, vengono riconosciute dagli algoritmi di face-recognition come differenti
A differenza delle altre tecniche generalmente utilizzate in tal senso, che vanno ad operare una vera e propria alterazione o cancellazione dei volti registrati (utilizzando le tecniche di blurring, pixelation, face swapping, deterioration, quality reduction and K-SAME), la società D-ID ha concepito un algoritmo che consente di mantenere intatta la riconoscibilità e l’espressività dei volti andando, al tempo stesso, a modificare solo quelle specifiche features che vengono utilizzate dagli algoritmi di face-recognition per distinguere le immagini e ricondurle alla nostra identità, producendo di fatto un’anonimizzazione digitale.
Questo approccio può essere utilizzato anche per generare degli avatar che, pur garantendo una verosimiglianza con il nostro volto originale, non consentono ai software di dedurre le nostre informazioni biometriche, la nostra etnia, provenienza o qualsiasi altra informazione riconducibile alla nostra identità (personally identifiable information). D-ID è una delle realtà che è sotto i riflettori sia perché conta al proprio interno un advisory board di nomi illustri che possono indirizzare opportunità verso lo sviluppo di nuovi algoritmi, sia perché tali applicazioni troveranno sempre più integrazione all’interno della nostra quotidianità digitale e reale.
All’annuncio della nuova piattaforma di creazione e rigging MetaHuman, Epic ha deciso di anticipare la distribuzione della parte Creator con un progetto demo in Unreal in cui è possibile trovare due personaggi già realizzati. Ho provato a configurare FaceLink per tracciare il mio volto e associarlo ai personaggi MetaHuman presenti.
Requisiti:
Windows 10, build 1902 or sup con supporto a DirectX 12
Scheda video NVIDIA con supporto al Raytracing in realtime
Unreal Engine 4.26.1 o sup.
Telefono IPhone X o sup.
App FaceLink
MetaHuman è una nuova piattaforma cloud creata che permette la creazione parametrica di personaggi e il loro successivo RIG, rendendoli pronti per essere utilizzati all’interno dell’ambiente di sviluppo Unreal Engine. L’utilizzo dell’app, verrà gestita tramite un collegamento web basato sul protocollo Unreal Engine Pixel Streaming e consentirà la creazione di nuovi personaggi tramite la parametrizzazione dei tratti somatici che andranno a scolpire la mesh tridimensionale del volto. In questo modo, si potrà osservare in tempo reale la modifica che tali impostazioni portano al personaggio.
Gli utenti saranno in grado di applicare stili di capelli, utilizzare campionari di abbigliamento preconfigurato e 18 tipologie di normotipo corporali. Inoltre, il Creator gestirà in modo automatica la generazione dei vari LOD variabile in base alle componenti (ad esempio il volto supporto fino a 8 LOD mentre il corpo 4 LOD configurati tramite il componente LOD sync di UE4).
Quando terminato l’asset, si potrà scaricare tramite Quixel Bridge, il tutto già completamente riggato, con LOD già definiti e pronto all’eventuale motion capture in Unreal Engine. Sarà possibile anche utilizzare i singoli file generati in formato Maya.
Attualmente il face tracking è supportato solo tramite l’app FaceLink, ma Epic promette una prossima integrazione con Faceware, JALI Inc., Speech Graphics, Dynamixyz, DI4D, Digital Domain, and Cubic Motion, oltre ovviamente alla possibilità di registrazione manuale tramite keyframes.
Maneggiando un po’ il progetto DEMO, devo ammettere che la particolare capacità di deformazione delle mesh e l’ottima configurazione delle texture, rende il risultato veramente fenomenale, soprattutto se si pensa al risparmio di tempo che tale elaborazione, con relative pesature, accompagnano le attività di creazione e riggin dei personaggi all’interno dei software 3D.
Visto che ad oggi, l’APP di creazione non è ancora utilizzabile, mi sono concentrato sulla configurazione face tracking tramite l’app FaceLink.
FaceLink
La configurazione dell’App è semplicissima. E’ sufficiente installarla ed avviarla abilitando nelle impostazioni (icona a forma di rotellina) la voce STREAM HEAD ROTATION.
Infine, sempre nelle impostazioni, cliccando sulla voce LIVE LINK possiamo accedere alle impostazioni in cui inserire l’indirizzo IP del computer sul quale è avviato Unreal Engine.
Ovviamente il computer deve condividere la stessa rete Wi-Fi del cellulare.
Per approfondire…
Se vuoi approfondire la tematica del FaceTracking markerless, puoi leggere questo mio articolo
Configurazione in Unreal Engine
Apriamo Unreal Engine, accertiamoci di avere l’ultima versione dell’Engine installato e successivamente cerchiamo nel MARKETPLACE il progetto MetaHuman, procedendo con l’installazione.
Dopo averlo installato, clicchiamo sul pulsante CREA PROGETTO, scegliamo la posizione sul nostro computer nella quale creare il nuovo progetto UE4 basato sul template MetaHumans.
A questo punto possiamo aprire il progetto appena creato e attendere qualche minuto.
Una volta aperto Unreal, dobbiamo accedere alla finestra FaceLink (se non è visibile la possiamo abilitare dal menù Windows->FaceLink.
Se a questo punto attiviamo l’app FACELINK sul cellulare, dovremmo vedere apparire il nostro ID all’interno dell’elenco delle sorgenti. Questo significa che Unreal sta ricevendo il flusso di capturing dal nostro cellulare (ma non sa ancora a cosa attribuirlo).
In caso non compaia il nostro ID, verificare le impostazioni di firewall o antivirus presenti nel computer.
Per prima cosa, andiamo a cancellare l’oggetto METASHAPESAMPLE_SEQUENCE. Si tratta di una sequenza video dimostrativa che parte appena mandiamo in PLAY la scena.
Dopodiché, cerchiamo l’oggetto BP_metahuman_001 che identifica il blueprint associato al personaggio donna della nostra scena (si consideri che all’interno della scena, dietro un “muro” presente alle spalle del personaggio donna, si nasconde un personaggio uomo).
Nelle proprietà del componente troviamo la voce di configurazione di FaceLink. Possiamo impostare l’ID del nostro cellulare e attiviamo la voce LLINK FACE HEAD.
A questo punto possiamo attivare un PLAY SIMULATIVO (attivabile anche tramite la combinazione di tasti ALT+S) e vedremo il personaggio interpretare le nostre smorfie.
Devo dire che la facilità di configurazione del face tracking e la morbidezza espressiva dei personaggi mi ha impressionato positivamente. Qualche limite sul tracciamento con facelink lo attribuisco alla parametrizzazione standard utilizzata nel personaggio e alla tecnologia markerless che introduce inevitabilmente qualche imprecisione. Sicuramente c’è da attendere la parte Creator per poter completare la valutazione di questa nuova tecnologia ma, comunque, dobbiamo ammettere la semplificazione verso la quale si stanno spingendo i software di rigging che, salvo esigenze particolari, diventano accessibili ai più giovani progettisti 3D.
Nel nuovo film Soul, targato Pixar/Disney, i tecnici hanno dovuto studiare nuova metodologie di renderizzazione per rappresentare i personaggi in una consistenza volumetrica, soffice ed eterea. Cerchiamo di capire l’approccio metodologico utilizzato.