Intelligenza Artificiale e fotografia #3: aspetti pratici

Negli articoli precedenti abbiamo contestualizzato la relazione tra Intelligenza Artificiale e fotografia, parlato di copyright, aspetti etici e possibili scenari futuri. In questo articolo incontriamo alcuni protagonisti e parliamo del lato più pratico della creazione di immagini con l’AI.


Qualche settimana fa, su FB, mi sono imbattuto in una foto molto ricca di particolari che mi era sembrata una campagna. L’ho guardata e ho pensato “Accidenti, ci sono ancora clienti che spendono tanto! Guarda che lavoraccio di trovarobato, scenografia, costumi… solo il casting deve essere costato una fortuna. E l’illuminazione è davvero accurata. Ma chissà perché così tanto Photoshop? Sembra quasi un’illustrazione…”

Solo dopo avere osservato altre immagini (e avere trovato una mano con 6 dita) ho capito che non si trattava di una fotografia. L’autore aveva utilizzato una descrizione testuale (o “prompt”) che l’intelligenza Artificiale aveva trasformato in immagine. Poi ho guardato altri suoi lavori, questi sembravano proprio foto. E invece… no, neanche quelli!

Alcune immagini generate con AI da Dennis Ziliotto tratte da serie diverse

Sto parlando di Dennis Ziliotto, fotografo di Monselice specializzato nella tecnica del Collodio Umido. Mi ha incuriosito il fatto che avesse creato diverse serie di immagini – soprattutto di botteghe artigianali – e ho deciso di fargli qualche domanda.

Come mai ti è venuto in mente di creare con AI le immagini delle botteghe?

“Più di creare immagini singole fine a sé stesse ho cercato di costruire qualcosa che avesse un filo conduttore, le botteghe perché mi affascinano i luoghi di ritrovo artigianali di un tempo.”

Sei specializzato in una tecnica fotografica antica ed ora anche nella forma più moderna di creazione di immagini. Come convivono i due approcci in te?

“Uso questa nuova tecnologia esclusivamente a scopo ludico, è mentalmente molto stimolante e divertente, il mio interesse per l’AI è prettamente personale, ciò che lavorativamente faccio è il completo opposto ma proprio questa diversità me li fa andar d’accordo.”

Che sviluppi vedi per questa tua capacità?

“Sviluppi per questa mio nuovo interesse “artistico” non ne vedo, continuerò ad essere un committente e dire cosa fare all’AI fino a quando continuerò a divertirmi.”

Quali sono le cose pratiche che ti hanno permesso di migliorare la qualità?

“Un prompt corposo aiuta ad avere un risultato finale più completo e complesso possibile, più informazioni si inseriscono più dettaglio avrà l’immagine creata.”

La serie del pugilato generata con AI da Dennis Ziliotto

La capacità di scrivere bene le descrizioni sembra essere una delle ricchezze principali per potere generare immagini di buona qualità. E, dal momento che anni di esperienza come fotografo non si possono comperare ma una descrizione sì, naturalmente è già apparso un mercato dove per un paio di dollari si possono acquistare (o vendere) i “prompt” utilizzati per generare una certa foto: Prompt Base.
Per i più esigenti, c’è anche la possibilità di assumere un “Prompt Engineer” e per i più esperti, l’opportunità di vendere le proprie consulenze. La piattaforma trattiene il 20%.

Una tecnologia nuova

“Per il momento questa tecnologia è molto nuova e siamo un po’ nel Far West: non ci sono ancora regole precise e lo dimostra la confusione che si sta creando in tema di copyright. Le grosse major sono spiazzate e ci vorrà ancora un po’ prima che questo caos prenda una forma più strutturata”.

A parlare è Lorenzo Colloreta, istruttore certificato Adobe che si occupa di formazione tecnica per fotografi, grafici e lavora molto anche nelle aziende. Ultimamente, riceve parecchie richieste da parte dei suoi clienti che vogliono rimanere aggiornati e capire a cosa può servire l’Intelligenza Artificiale e come possono utilizzarla insieme ad altri strumenti e programmi.

Quando l’ho contattato, lui ha messo subito le mani avanti: “Le risposte che posso dare oggi potrebbero diventare vecchie ed obsolete molto in fretta. Tutto sta cambiando così velocemente che le cose che adesso sembrano difficili potrebbero essere date per scontate fra due settimane.”

Facci un esempio

“Gli algoritmi principali sono già tutti evoluti quindi la qualità è cambiata, basta guardare quello che trovi in rete che è molto migliore rispetto ad un mese fa. Gli utenti hanno imparato a dialogare meglio, ma anche il sistema si è evoluto.”

Cosa spieghi ai tuoi clienti per aiutarli ad inquadrare la situazione?

“Che alcune funzioni di programmi che ogni fotografo utilizza (Photoshop, Lightroom, Camera Raw…) si avvalgono già di AI. Per utilizzare le soluzioni generative di cui tutti stanno parlando ultimamente abbiamo tre principali possibilità:

Midjourney, per accedere occorre fare un profilo su Discord (la piattaforma di una chat) e si generano le immagini all’interno della chat, è possibile imparare osservando gli altri e anche chiedere consigli. Per avere più privacy occorre pagare.

Stable Diffusion, che è un’open source e si può usare con tanti vari servizi online (per esempio Dreamstudio a pagamento) oppure compilare e installare in locale sul proprio computer (ma al momento è difficile da installare, occupa parecchio spazio e bisogna essere un po’ smanettoni). Versioni di Stable Diffusion compaiono continuamente, ne esistono anche su iOS (Draw Things, gratis) e probabilmente a breve saranno facilmente installabili su qualsiasi PC e anche Mac.

DALL-E 2, creato da OpenAI, in beta open, basta iscriversi e si ricevono alcuni crediti gratuitamente per sperimentare. Finiti quelli, se ne possono acquistare altri.

È anche in arrivo Imagen, sviluppata da Google, che ha delle grosse potenzialità e stiamo aspettando l’apertura della fase beta.

In ogni caso, si stanno moltiplicando i siti che offrono la creazione delle immagini appoggiandosi a una delle opzioni disponibili, basta cercare “text to image AI bot”. Anche Canva ha appena lanciato la possibilità di creare immagini da testi.

Draw Things: Ai Generation è un’applicazione da scaricare sul telefono (un po’ pesante). La cosa interessante è che si possono scegliere diversi modelli di AI che sono stati “educati” in modo diverso. Il che significa che sono specializzati a creare immagini con determinate caratteristiche.”

Alcune immagini generate con AI da Lorenzo Colloreta tratte da serie diverse

Per rimanere aggiornati cosa suggerisci?

“Twitter è uno dei modi migliori per scoprire cosa sta succedendo, per esempio cercando l’hashtag #stablediffusion”

Quali sono i tuoi consigli per ottenere qualità migliore nella generazione di immagini?

“Essere precisi e pignoli nella descrizione ed aspettarsi che tutto ciò che non è specificato possa essere molto diverso da ciò che ci si aspetta. Per esempio, se scrivo capelli biondi non dico corti o lunghi e neanche ricci o lisci. Come sarà il risultato?
Bisogna tenere presente che ogni singolo motore ragiona in maniera diversa a seconda di come è stato educato. Invece di scrivere dei prompt troppo lunghi, è più utile imparare a capire bene come dialogare con quell’interlocutore. Naturalmente, lo stesso prompt su due motori diversi darà risultati diversi e copiarli dagli altri ha senso fino ad un certo punto”

Consigli di rielaborare le immagini ottenute?

“Sicuramente è una buona idea aumentare la risoluzione con un programma come Topazlab GigaPixel AI, poi è possibile fare delle modifiche con Photoshop.”

Come mai, secondo te, molte delle immagini generate dall’Intelligenza Artificiale hanno quell’aspetto un po’ di plastica? Sono quasi realiste, ma non proprio.

“Per generare una nuova immagine, l’Intelligenza Artificiale comincia con una bozza più grossolana che poi rifinisce sempre di più. Il tempo a disposizione non è molto, dunque possono mancare i dettagli più realisti. Probabilmente, fra non molto le immagini riusciranno ad essere più simili ad una fotografia.”

Per ottenere un effetto più realista adesso?

“Nelle versioni a pagamento di Midjourney o in alcune delle implementazioni di Stable Diffusion è possibile assegnare più tempo (pagando di più). Su Midjourney puoi selezionare una zona e chiedere di aggiungere elaborazioni. Rigenerando un dettaglio, però, non è detto che si riesca a mantenere il resto dell’immagine uguale. Per adesso sono tutte cose ancora difficili da gestire. Una funzione che molti vorrebbero è proprio la possibilità di salvare un personaggio creato e fargli interpretare uno storyboard. Al momento è un po’ complesso da realizzare (cercando su Youtube ‘consistent AI character’ ci sono dei tutorial), ma probabilmente diventerà più facile.”

Uno dei tutorial disponibili su Youtube per riuscire a ricreare lo stesso personaggio in diverse situazioni.

Come mai, secondo te, non sono riuscito a fare creare a nessun motore un ritratto di Nancy Cunard come se lo avesse disegnato Leonardo Da Vinci a sanguigna?

“Probabilmente perché i disegni di Leonardo a sanguigna sono troppo pochi perché l’Intelligenza Artificiale li possa considerare uno stile rilevante da salvare. È più facile riconoscere uno stile di cui c’è abbondanza in rete”.

A questo punto sento l’urgenza di fare una cosa. Saluto Lorenzo e provo subito a generare un ritratto di Nancy Cunard con lo stile dei disegni Manga su tutti i motori a cui ho accesso. In effetti, il risultato è un po’ più fedele, ma non sempre. E tiro un sospiro di sollievo: forse Leonardo si salverà dall’oblio?

Lo scopriremo (forse) nella prossima puntata incontrando altri importanti protagonisti di questo cambiamento epocale.

Hai appena letto l’articolo #3 di una serie di 4 articoli.
L’articolo #1 : Intelligenza Artificiale e fotografia: cosa sta succedendo?
L’articolo #2 : Intelligenza Artificiale e fotografia: copyright e sviluppi futuri
L’articolo #4 : Intelligenza Artificiale e fotografia: fotograferemo ancora?

Enzo Dal Verme
Workshop Ritratto

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *