Descrizione
In questo secondo episodio di Pensieri in codice - Community Edition, Alex Raccuglia ci parla della fase di produzione dello spot televisivo e di come l’Intelligenza Artificiale ne ha cambiato i processi.
Se anche tu vuoi parlare di qualche argomento interessante su Pensieri in codice, scrivimi su Telegram o all’indirizzo valerio@pensieriincodice.it
Puoi trovare Alex Raccuglia su diversi canali: • Ulti.Media: È il suo sito ufficiale dove vende le sue app per videomaker, in particolare per Final Cut Pro. (https://ulti.media) • Techno Pillz (Spreaker): È l’host del podcast “Techno Pillz”, disponibile su Spreaker (https://www.spreaker.com/podcast/technopillz--2003518). • Runtime Radio: È il network che ospita “Techno Pillz” e dove si può ascoltare “The Morning Rant” in diretta (https://runtimeradio.it/). Social Media e Community: • Telegram: Esiste un gruppo Telegram chiamato “TechnoPillz Riot” dove puoi unirti alla community e discutere (https://telegram.me/TechnoPillzRiot). • YouTube: Il canale YouTube Ulti.Media" in relazione alle sue attività (https://www.youtube.com/@ulti_media) • Twitter/X: Viene menzionato l’account Twitter “/ulti_media” (https://x.com/ulti_media).
Sostieni il progetto
Sostieni tramite SatispaySostieni tramite Revolut
Sostieni tramite PayPal (applica commissioni)
Sostieni utilizzando i link affiliati di Pensieri in codice: Amazon, Todoist, Readwise Reader, Satispay
Sostenitori di oggi: Edoardo Secco, Carlo Tomas
Partner
GrUSP (Codice sconto per tutti gli eventi: community_PIC)Schrödinger Hat
Crediti
Sound design - Alex RaccugliaVoce intro - Maria Chiara Virgili
Voce intro - Spad
Musiche - Kubbi - Up In My Jam, Light-foot - Moldy Lotion, Creativity, Old time memories
Suoni - Zapsplat.com
Cover e trascrizione - Francesco Zubani
Mostra testo dell'episodio
Quello che segue è lo script originale dell'episodio.
Introduzione
So benissimo che non vedevi l’ora che uscisse questo secondo episodio di Pensieri in codice Community Edition, perché ho ricevuto moltissimi feedback positivi su quello della settimana scorsa.
E chi sono io, allora, per deluderti?
Oggi, quindi, il nostro Alex Raccuglia continua il suo racconto su come l’Intelligenza Artificiale abbia influito sulla realizzazione di un suo spot televisivo per il mercato australiano.
Nello specifico, in questo episodio ci parlerà della fase della produzione e, se non lo hai già fatto, per capire al meglio l’argomento trattato, ti consigli di ascoltare prima l’episodio scorso di Pensieri in codice, cioè il 138.
Detto questo, ti auguro buon ascolto e noi ci risentiamo fra un po'.
Sigla.
L’impatto dell’Intelligenza Artificiale su uno spot televisivo (parte 2 di 4)
Ciao a tutti, sono ancora Alex Racuglia e questo è il secondo episodio in cui io parlo di come l’intelligenza artificiale sta influendo sul mio lavoro di produttore e regista di spot televisivi videopromozionali.
Non voglio dilungarmi troppo, la prima parte piuttosto corposa l’avete sentita nella puntata precedente di questo podcast, di Pensieri in Codice.
Adesso vi racconterò in che modo l’intelligenza artificiale è entrata anche nel processo di produzione.
La volta scorsa vi ho detto che la fase di produzione è quella fisica, effettivamente, in cui si accendono le telecamere e si fanno le riprese.
Per cui uno potrebbe dire “ma come l’intelligenza artificiale aiuta questo processo?” Allora, nel mio caso non è mai successo, ma questa volta sì e voglio raccontarvi il come e il perché.
E per raccontarvi il come e il perché devo fare una piccola digressione tecnica che magari potrebbe anche interessarmi.
Oggi voglio parlarvi di slow motion.
Che cos’è lo slow motion.
Fondamentalmente è mostrare delle immagini a rallentatore, dei video a rallentatore.
Ne siamo consci, lo guardiamo tutte le volte quando vediamo dei filmati che qualcosa non è in tempo reale ma è rallentata e dal punto di vista comunicativo il rallentity consente di vedere meglio l’azione.
Stiamo pensando al replay di un’azione, di una partita di calcio o di pallacanestro o di qualsiasi altro sport e di conseguenza rendere il tutto molto più fluido perché qualsiasi movimento scattoso diventa molto più fluido rallentato e infine enfaticamente rende il movimento più epico.
Se ci pensate bene tutti tutti i film epici degli ultimi tempi hanno una scena a rallentatore per enfatizzare un certo momento.
Vabbè, ma a parte tutto questo, io ho sempre girato gli spot televisivi di oggetti inanimati sempre con movimento.
Io credo che non possa esistere un video in cui un’inquadratura è doppiamente statica.
Difficilmente, molto ma molto ma molto difficilmente io come regista tengo la camera fissa su un cavalletto perché mi manca il dinamismo.
Cioè il grande vantaggio del video del cinema rispetto alla fotografia è quello di mostrare il movimento e quanto più movimento c’è in maniera comunque armonica e più il video ha un senso e acquista secondo me anche valore anche potenza comunicativa.
Quando giro degli spot come questi o utilizzo la camera su uno slider, cioè tengo gli oggetti fissi, muovo la camera in modo tale da dare un effetto di parallasse o nel caso di questo spot, in alcuni inquadratori di questo spot, tengo gli oggetti fissi, cioè tengo la camera fissa su un cavalletto e gli oggetti rotanti su una piattaforma rotante in modo tale che il movimento rotatorio del soggetto consenta di vederne tanti dettagli e enfatizzarne la tridimensionalità.
Si utilizzano delle luci più o meno drammatiche, nel senso che non c’è una diffusione unica, una luce bella morbida ma di solito si utilizzano delle luci di taglio laterali, non troppo dure però comunque laterali, in modo tale che i piccoli dettagli tridimensionali dei modelli vengano enfatizzati dalle ombre, dal chiaroscuro, per cui c’è un certo contrasto ricercato.
Anche per esempio se immaginiamo una superficie metallica, dunque pseudo riflettente, aggiungere dei piccoli riflessi o delle piccole luci dalla parte opposta della luce principale, genera quei riflessi che si muovono in senso contrario e enfatizzano i punti luce delle superfici più lisce e di conseguenza anche quelle che hanno meno dettaglio ma hanno tridimensionalità perché sono un po’ bombate, immaginatevi il serbatoio di una moto, vengono enfatizzate.
Per cui io quando faccio questi spot giro queste cose con camera in movimento oppure con camera fissa ma con oggetto in movimento rotatorio, in modo da enfatizzarne la tridimensionalità.
Questo è una questione di stile ma tendenzialmente quasi tutti gli spot vengono fatti in questo modo, quelli di questo tipo.
Perché lavorare sul ralenti.
Io utilizzo moltissimo il ralenti proprio perché così posso enfatizzare i movimenti, soprattutto perché se stiamo parlando di oggetti reali è un conto ma i modelli sono piccoli e di conseguenza anche uno spostamento di un millimetro risulta essere ingrandito molto perché la camera deve ingrandire molto il modello perché sembri più grosso di quello che è in realtà.
Anche il singolo dettaglio con un millimetro può comportare un grande spostamento.
Allora di solito io utilizzo il ralenti per diminuire questo spostamento.
Mettiamo caso che la rotazione del modello sul piatto rotante è di 360° in 30 secondi, mediamente il mio rotatore è così, significa che abbiamo 36° ogni 3 secondi, 12° al secondo.
Non sono pochi 12° al secondo, se volete sapere che cos’è 12° sappiate che i 5 minuti di un orologio sono 15°, per cui non sono pochi, soprattutto se enfatizzati e ingranditi tantissimo dalle inquadrature molto ravvicinate.
Allora la mia idea è quella di rallentare in modo tale da non avere questi 12° al secondo ma avere 6° al secondo, 3° al secondo, in questo modo il movimento è più lento più morbido e di conseguenza anche i dettagli si percepiscono di più.
Come si fa a fare lo slow motion, i rallenti.
Vi racconto prima storicamente come si è sempre fatto e poi dopo come la tecnologia è avanzata in questo.
Storicamente si è sempre fatto con quello che viene chiamato overcranking al cinema.
Torniamo all’origine.
Cinema, la pellicola, la pellicola viene proiettata a 24 fotogrammi al secondo, cioè 24 fotografie che vengono proiettate al secondo.
Ora i tecnici di cinema sanno che non è esattamente così, ci sono due imprecisioni in questa frase, ma in prima approssimazione immaginatevi questa cosa qua, una fotografia che viene proiettata dura un ventiquattresimo di secondo e dopo passa alla fotografia successiva.
Per praticità di calcoli oggi parleremo di 25 fotogrammi al secondo, ok.
Ma solo perché così è più comodo fare i calcoli e raccontarvi a voi.
25 fotogrammi al secondo significa che ogni fotogramma viene preso a 0, 04 secondi dal fotogramma precedente.
È un po’ come se noi immortalassimo la realtà ogni 0, 04 secondi, ok.
Per cui se io devo fare un secondo di cinema a 25 fotogrammi al secondo, devo scattare 25 fotografie, una fotografia all’istante 0, seconda fotografia 0, 04, terza fotografia 0, 08, quarta fotografia 0, 12 eccetera eccetera eccetera, ok.
Giro a 25 fotogrammi al secondo, proietto 25 fotogrammi al secondo uno a uno, ok.
Se io faccio l’overcranking, cioè io giro a una frequenza di fotogrammi superiore, cosa succede.
Mettiamo che invece di girare a 25 fotogrammi al secondo giri 50 fotogrammi al secondo scatto una fotografia ogni 0, 02 secondi ok il tempo di proiezione è sempre lo stesso per cui sempre 25 fotogrammi al secondo ma se io in un secondo ho girato 50 fotogrammi proiettandoli 25 fotogrammi al secondo diventeranno due secondi ok per cui quello che io ho preso a 0, 02 0, 04 0, 06 viene mostrato 0, 04 0, 08 0, 12 di conseguenza una dilatazione del tempo ho ottenuto essenzialmente un rallenty un rallentamento del 50 per cento lo slow motion più classico poi si possono fare tutti i tipi di moltiplicazioni io spesso e volentieri giro a 60 fotogrammi al secondo per poter andare a 25 fotogrammi al secondo 25 perché lo standard televisivo pal e a 25 fotogrammi al secondo questo è se vi pare 60 diviso 25 fa non mi ricordo più quella proporzione 12 quinti insomma abbiamo un rallenty ancora più più rallentato perché io giro questo questo rallenty così in questo modo i movimenti sono molto più minimali e soprattutto posso lavorare molto sul cambio del tempo magari a velocizzare alcune parti e rallentarne altre avendo comunque molte più informazioni possibili potrei lavorare a 120 sì ma non ho un strumento che me lo faccia fare a 4k giro anche in 4k perché così posso avere molta più risoluzione e posso fare reframing posso insomma alla fine ho un fotogramma molto più più dettagliato è molto più nitido questo è quello che si è sempre fatto nel cinema si fa overcranking per poi rallentare mantenendo la frequenza di proiezione identica non è sempre una cosa che viene fatta in maniera esplicita pensiamo al film 300 di zack snyder è molto evidente quando c’è il momento del rallenty perché a volte è quasi è quasi statico o anche matrix ma in altri film invece questa cosa viene sfruttata per dare più pesantezza ai movimenti senza che sia percepibile il film braveheart di mel gibson le scene di battaglia sono state girate se non ricordo a 28 o 30 fotogrammi al secondo proprio per dare quel minimo dei ralenti del 20 per cento impercettibile dal punto di vista della cioè non si sta capendo che è una cosa rallentata però fa sentire le armi più pesanti il combattimento più più inerziale ok sappiate che è un trucco che si usa sempre nella storia del cinema questo si è sempre fatto così fino all’avento della delle camere digitali le camere digitali soprattutto all’inizio avevano dei grossi limiti non potevano girare ad alte frequenze di fotogrammi per cui potevano andare a 24 fotogrammi al secondo non potevano andare a 50 perché non ci stavano non avevano banda c’erano un sacco di limiti e allora sono stati sviluppati degli algoritmi per cercare di interpolare fotogrammi in modo tale da far sì che se parti da 25 fotogrammi vuoi averne 50 i 25 che crei sono una sorta di blend fatto bene in maniera sensata degli originali inizialmente si faceva un rallentamento tendenzialmente era dimezzando mostrando due volte lo stesso fotogramma però questa roba faceva vedere che era una cosa molto scattosa poi si è fatto una cross dissolve tra fotogrammi però anche questo già generava un effetto scia poco bello molto molto poco esteticamente appagante il primo algoritmo sensato che è stato portato per realizzare questo tipo di cose si chiamava si chiama tuttora optical flow optical flow si basa sulla stessa ricerca che viene fatta per la comprensione delle immagini in pratica optical flow prende due fotogrammi consecutivi quelli reali girati e per ogni pixel del primo fotogramma cerca di capire dove sta il pixel nel fotogramma successivo andando a fare una ricerca locale e di conseguenza generando una sorta di vettore di spostamento per ogni singolo pixel di conseguenza se io ho un vettore di spostamento so che il pixel a coordinate 10, 10 nel fotogramma successivo sta a 20, 20 a metà strada il pixel si troverà a 15, 15 per cui per ogni singolo pixel viene creata una sorta di mappa di distorsione totale dell’immagine in modo tale che si possa sapere si possa andare a creare a creare dei fotogrammi intermedi questa cosa funziona abbastanza bene su dei movimenti relativamente lenti non troppo esagerati soprattutto quando non ci sono effetti di parallasse cioè se io sto riprendendo qualcuno che si muove su uno sfondo statico funziona se io sto riprendendo uno sfondo con camera e movimento funziona se io una persona che si muove e il movimento si muove in senso contrario perché la camera si muove in senso contrario allora l’effetto è diciamo che abbiamo dei grossi problemi oppure quando c’è molto movimento questo è stato vero fino a un anno fa per me perché utilizzavo l’algoritmo di optical flow di adobe after effects che è uno dei migliori prima si usava twixtor ma adesso diciamo che la differenza qualitativa tra twixtor e after effects è ormai trascurabile.
Un anno fa apple ha presentato l’ultima versione di final cut pro la versione 11 che aggiungeva una nuova feature utilizzare un modello di machine learning di intelligenza artificiale per fare l’interpolazione tra fotogrammi che io ho provato così un passant e devo dire che dà dei risultati anche migliori in pratica è una sorta di evoluzione basata sull’ intelligenza artificiale su un modello che secondo me non è anche troppo complesso che mi piacerebbe scoprire qual è perché apple non inventa niente che genera fa la stessa cosa che faceva l’optical flow utilizzando l’intelligenza artificiale di conseguenza creando questa mappa di spostamento dei pixel però essendo basata sull’intelligenza artificiale funziona un po meglio quando abbiamo degli oggetti che si sovrappongono in parallasse.
Allora l’ho usata in un altro video mi ha funzionato abbastanza ovviamente quando i movimenti sono esagerati va in crisi anche lei però quando i movimenti sono contenuti la qualità era abbastanza sensata e allora durante le riprese di questo spot ho detto facciamo una cosa proviamo a fare delle riprese di questi oggetti di provare a fare il rallenty immediatamente subito dopo le riprese cioè con il file in mano e vedere cosa cosa succede solo che mi son detto questi oggetti questi questi oggetti sono molto piccoli di conseguenza riprenderli è difficile e soprattutto ho una perdita di risoluzione.
Cosa ho fatto invece di fare un video ho deciso di scattare delle foto a raffica ho preso una macchina fotografica una canon eos 60d niente di trascendentale e di scattare foto a raffica ovvero quando tenete premuto il pulsante fate clic clic clic clic ok le raffiche della 60d non sono come quelle della 7d che sono molto più pensate per riprese sportive però devo dire che diciamo che riuscivo a scattare una raffica di 6 fotografie in un secondo 6 fotogrammi ok 6 fotogrammi in un secondo allora ho fatto questa cosa qui facevo le fotografie dei dettagli la macchina fotografica 18 megapixel per cui fate conto che sono immagini in 5k 5000 per 3000 più o meno facendo queste fotografie poi andando a rimappare queste fotografie in 1080 cioè facendo uno zoom dentro riuscivo ad avere un ingrandimento eccezionale dei dettagli che comunque sono molto belli dettagli dei modelli immaginate che l’inquadratura o un’inquadratura poteva prendere un taglio di circa due centimetri in altezza che poi riportate su un televisore da 40 pollici è una cosa non indifferente avere un dettaglio di questo tipo e praticamente chiunque guarderà questi filmati lo farà sul televisore di casa e quasi tutti hanno un televisore da almeno 40 pollici in casa per cui l’enfatizzazione del dettaglio è bella anche perché se questi dettagli sembrano così grandi il modello sembra così grande ho fatto questa serie di fotografie 6 fotografie portavo queste 6 fotografie in after effects e generavo creavo un video di 6 fotogrammi giustamente andando a stabilizzare l’immagine cioè andando praticamente a tenere un dettaglio fisso e poi andare a fare un minimo di contromovimento molto lieve andando a specificare che questo video era un video a 25 fotogrammi al secondo perché quando scattate delle fotografie e le portate dentro un programma di montaggio programma di montaggio devi dire sì ok ma quanto dura ogni singola fotografia gli dico ogni fotografia dura un venticinquesimo alla fine io facevo dei filmati ho provato a fare un filmato che durava 6 venticinquesimi di secondo sei fotogrammi ognuno dei quali 25 fotogrammi al secondo a questo punto prendevo questo filmato esportato stabilizzato centrato eccetera eccetera eccetera eccetera e applicavo a questo punto la l’interpolazione con l’intelligenza artificiale di apple e ho allungato questo filmato dal 6 venticinquesimi di secondo che sono un quarto di secondo più o meno e allungavo due secondi e in tempo reale sul set perché mi porto sempre il computer sul set sempre devo sempre riguardare le cose a schermo grande prima di dire con inquadratura l’ho fatta bene a questo punto vedevo la cosa era naturalissima questo movimento era perfetto assolutamente perfetto l’intelligenza artificiale con questo tipo di contromovimento aveva raggiunto l’optimum sono stato basito entusiasta ero proprio mi sono messo a cantare sul set cavoli che figata ho fatto vedere il risultato a tutti quanti ed eravamo talmente contenti che abbiamo deciso di dirà di girare velocemente i dettagli di tutte le moto 15 modelli di moto per ogni modello ho girato una decina di dettagli diversi il manubrio la ruota anteriore la ruota posteriore la catena la parte del motore la parte sopra il serbatoio tutto arrivando appunto ad avere tantissimi dettagli da cui scegliere anche perché poi queste informazioni volendo post potrebbero essere utilizzate nella comunicazione social sul sito noi questa cosa abbiamo girato e poi in qualche modo vedremo se tra virgolette rivendergliela è stato illuminante per cui per una volta l’intelligenza artificiale mi è venuto in aiuto un altro modello ancora un altro storment ancora mi è venuto in aiuto però questa volta in fase di produzione e sono molto felice di questa cosa qui questa forse è stata la grande scoperta di questo spot vi sto dicendo un segreto interessantissimo ma credo che tutti possiate possiate comprenderlo questo è stato la il momento chiave direi che per oggi ho detto tutto quello che dovevo dire per cui vi do appuntamento alla prossima puntata in cui vi racconterò se e come l’intelligenza artificiale influisce e impatta anche nel processo di post produzione grazie di avermi seguito e rilascio la rilascio la parola rilascio il microfono a valerio ciao
Conclusione
Grazie mille, Alex. Ancora una volta un contenuto super interessante e, soprattutto spiegato in modo così chiaro che l’ho capito perfino io che di prodotti video non so praticamente un tubo. Quindi: veramente grazie.
A te che ci hai ascoltato, invece, ricordo che questo è il secondo di quattro episodi a cura di Alex che usciranno nelle prossime settimane sempre qui su Pensieri in codice per la nuova rubrica Pensieri in codice Community Edition, in cui sono gli ascoltatori stessi del podcast a parlare di ciò che conoscono e che li affascina.
Quindi, - e solo ora mi rendo conto che non lo dico quasi mai - se non vuoi perdere le nuove uscite, ricordati di iscriverti: trovi questo podcast su tutte le maggiori piattaforme - Apple podcast, Spotify, YouTube, ecc. - e sul sito pensieriincodice.it (con due i).
Per ascoltare invece tutti gli altri contenuti prodotti da Alex Raccuglia - e ti assicuro che sono davvero tanti, variegati e sopratutto interessanti - ti lasci un descrizione un po’ di link da esplorare.
Infine, ricorda che Pensieri in codice è un progetto indipendente che porto avanti esclusivamente a scopo divulgativo con le mie risorse personali e nel mio tempo libero; e che, pertanto, ha bisogno del tuo supporto per andare avanti.
Noi qui - e con noi intendo sia io che la community - abbiamo abbracciato ormai da un po’ di tempo la filosofia Value4Value, che in pratica vuol dire che tu che ascolti non devi paga nulla, non devi ascoltare pubblicità, non vieni tracciato e non cedi i tuoi dati…
Però, in cambio, io ti chiedo di fermarti un secondo a riflettere su quanto questo progetto vale per te. Hai imparato qualcosa? Hai pensato wow, a questo non ci avevo pensato? Ti è scappato un sorriso? Bene, allora forse Pensieri in codice ti ha dato qualcosa.
In cambio, se vuoi - senza nessun obbligo eh, mi raccomando - puoi pensare di restituire in qualche modo quella piccola unità di valore. Puoi farlo in vari modi, con una donazione, lasciando una recensione, facendo conoscere il progetto ad altri potenziali ascoltatori, aiutando con la gestione sui social…
Oppure puoi fare come sta facendo Alex e prestare in qualche modo il tuo talento: quindi, se hai un’idea o un argomento di cui ti piacerebbe parlare nella rubrica Pensieri in codice Community Edition come ha fatto lui oggi, scrivimi su Telegram o all’indirizzo email valerio@pensieriincodice.it e ne parliamo insieme.
Bene, detto questo, direi che possiamo salutarci e darci appuntamento al prossimo episodio e mi raccomando: non dimenticare mai che un’informatico risolve problemi, a volte anche usando il computer.
Nascondi