Etichette ed AI: come le piattaforme cercano di distinguere tra autori e macchine

Le aziende tecnologiche, tra cui Meta e Google, stanno adottando misure per etichettare i contenuti video e foto generati dall’intelligenza artificiale (AI), con l’obiettivo di garantire maggiore trasparenza e aiutare gli utenti a distinguere tra contenuti autentici e quelli creati artificialmente.

Meta ha introdotto etichette come “Made with AI” per indicare i contenuti generati o modificati dall’AI. Questo include l’uso di marcatori visibili, watermark invisibili e metadati nei file immagine per migliorare l’identificazione dei contenuti generati artificialmente. Le politiche di Meta sono in linea con gli standard tecnici del C2PA (Coalition for Content Provenance and Authenticity) e sono sviluppate in collaborazione con altre aziende tecnologiche e il Partnership on AI (PAI)​ le linee guida si trovano qui (Facebook)​​ mentre a questo link si trova l’apporccio di Meta a quelle che sono le regole sui contenuti (volutamente?) manipolati , che includono rischi di opinione e possono generare una revisione anche molto severa sulla loro appropriatezza in rete (Facebook)​.

 

 

Anche Google sta affrontando il tema dell’etichettatura dei contenuti AI, ma con un approccio leggermente diverso. Google non richiede attualmente ai creatori di etichettare i contenuti testuali generati dall’AI. Tuttavia, consiglia di farlo quando può essere utile per gli utenti. Google enfatizza l’importanza della qualità del contenuto, indipendentemente da come è stato prodotto, e raccomanda che i contenuti generati dall’AI siano sempre rivisti da editori umani per garantirne l’accuratezza e l’affidabilità​ . Sembrerebbe cosi’ limitare l’etichettatura (e anche la volontà di identificare cosa non è stato prodotto dagli umani, soprattutto nela parte dei contenuti scritti; e considerando che i contenuti di copy generati almeno in parte da AI sono in aumento verticale, il tema è piu’ che al centro degli autori). 

L’efficacia di queste etichettature è ancora oggetto di dibattito. Da un lato, possono aiutare a ridurre la disinformazione. Dall’altro, ci sono ancora sfide tecniche significative, come la possibilità per gli utenti di rimuovere i metadati o manipolare le immagini per eludere le etichettature. Inoltre, gli strumenti attuali non sempre identificano correttamente tutti i contenuti generati dall’A. Non è chiaro ad esempio quale sia il limite, seppure sembra prioritario che ad essere etichettate siano le immagini con aspetti decisamente realistici. ma se ad esempio creiamo con la AI un’opera d’arte che da soli non saremmo stati in grado di generare e omettiamo di dichiararlo, siamo passibili comunque di veto per il solo fatto di avere generato nel pubblico una alta aspettativa sulle nostre capacità artistiche? ​

 

 

Si dibatte anche sulle capacità tecniche delle piattaforme di rilevare il contenuto come AI se il file viene manipolato (ad esempio con uno screenshot ) e ripostato senza dare gli stessi elementi di quello di partenza. Petapixel ha anche  riportato un caso di malfunzionamento nei confronti di una immagine di un fotografo (Paré) che veniva interpretata come generata da AI anche se non lo era affatto. In termini di proprietà intellettuale stiamo invertendo l’onere della prova e stiamo dando ai fotografi l’ulteriore responsabilità di difendersi nei confronti di chi percepisce in modo errato il loro lavoro ed i loro diritti. 

Le linee guida seguite da Meta e Google sono influenzate da diverse fonti, tra cui il Partnership on AI (PAI) e il C2PA. Inoltre, entrambe le aziende hanno sviluppato le loro politiche attraverso consultazioni pubbliche e feedback da parte di esperti del settore, accademici e organizzazioni della società civile​.

 

 

Ricapitoliamo: quando una opera è originale e quando è considerata derivante da AI (con conseguente trattamento differenziato in termini di proprietà intellettuale?) Un contenuto è considerato generato dall’AI se l’intero processo creativo è eseguito da un modello di intelligenza artificiale senza intervento umano significativo. Al contrario, se un artista utilizza strumenti di AI come supporto, ma contribuisce in modo sostanziale al risultato finale attraverso la propria creatività e competenza, l’opera può essere considerata proprietà intellettuale dell’artista​ 

L’etichettatura dei contenuti generati dall’AI è un passo importante verso una maggiore trasparenza nel mondo digitale, ma restano molte sfide da affrontare. Le aziende e i legislatori dovranno collaborare strettamente per sviluppare norme che proteggano sia i creatori di contenuti sia i consumatori, garantendo al contempo l’integrità e la fiducia nel contenuto digitale.

 

 

 

 

 

 

Stefania Quintajé è un consulente legale internazionale; si è specializzata in nuove tecnologie, innovazione legale, privacy e proprietà intellettuale. Si occupa di consulenza in-house per gruppi aziendali internazionali come ad esempio Amazon, ABB, NIke, Salesforce, Gartner. In NOC Sensei cercherà di rispondere in modo semplice a dubbi e curiosità sulle nuove tendenze della tecnologia e della fotografia dal punto di vista legale, accompagnandoci anche alla scoperta di casi famosi che hanno coinvolto scatti e fotografi in giro per il mondo. Il suo sito è www.thelegalsybil.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *