l’AI Act non ci salverà dai deep fake

E’ di qualche settimana fa la notizia che la super business woman e cantante Taylor Swift abbia forse deciso di rivolgersi ai suoi legali per tutelarsi nei confronti di un utente che aveva creato appositamente delle immagini esplicite basandosi su scatti autentici della pop star.

L’accuratezza delle immagini cosiddette “fake” aumenta col passare del tempo e con il raffinare dei sistemi di AI generativa, ma il vero problema risulta essere la incapacità di alcuni di questi sistemi di porre dei limiti che quantomeno tutelino il più possibile i soggetti ritratti.

 

 

Nel caso di un personaggio noto il danno può andare dal contestualizzare in un luogo o situazioni compromettenti, fino a lederne la dignità in modo permanente (è ancora oggi molto difficile cancellare interamente le immagini da ogni supporto una volta condivise online), ma nel caso di soggetti deboli o con necessità di tutele ancora più rilevanti il tema si fa ancora più grave. Petapixel ha rivelato di essere venuta in possesso in modo esclusivo di immagini generate dalla Intelligenza Artificiale e disponibili per la vendita (ora non più)  sulla piattaforma Shutterstock che ritraevano minori (bambini in particolare) in momenti di estrema intimità e posizioni ed atteggiamenti più che sconvenienti.

Shutterstock ha prontamente rimosso le immagini e ha bannato a tempo indefinito l’utente che le aveva caricate ma la problematica fondamentale è che i filtri della piattaforma, che pure si impegna a non mettere a disposizione contenuti inappropriati e lesivi, non hanno funzionato.

Se pensavamo di porre un freno a questo genere di problemi, almeno in Europa, grazie all’applicazione del cosiddetto AI Act (il primo regolamento al mondo che cerca di disciplinare tutti gli aspetti relativi all’intelligenza artificiale), ci eravamo però piamente illusi.

L’AI Act si appresta infatti ad essere definitivamente approvato (salvo imprevisti) intorno al prossimo mese di Aprile, anche se dovremo attendere fino a tre anni per vedere tutti i capitoli del regolamento implementati correttamente.

L’approccio regolatorio adottato dall’U.E. classifica i sistemi di AI in base al livello di rischio che presentano, introducendo categorie per sistemi con rischi inaccettabili, ad alto rischio, a rischio limitato e a basso rischio. Le norme più rigorose si applicano ai sistemi considerati ad alto rischio, che devono soddisfare requisiti specifici, tra cui valutazioni di conformità​​.

Anche se l’AI Act non vieta esplicitamente la creazione di deepfake o altri contenuti generati dalla AI che possono distorcere la realtà, impone regole stringenti che potrebbero limitare l’uso e la distribuzione di tali contenuti, soprattutto se considerati ad alto rischio per i diritti fondamentali o se potrebbero causare danni significativi. Questo potrebbe includere, ad esempio, l’uso di deepfake in contesti che influenzano l’opinione pubblica, le elezioni o altri aspetti critici della società. 

In sintesi, mentre l’AI Act dell’U.E. non proibisce esplicitamente i deepfake e altri contenuti generati dalla AI, stabilisce un quadro regolatorio che potrebbe limitarne l’uso in base al livello di rischio che presentano, imponendo obblighi specifici ai fornitori di tali tecnologie per garantire la trasparenza, la sicurezza e il rispetto dei diritti fondamentali.

Un quadro normativo ancora troppo incerto e generico non adeguato a tutelare da sfruttatori senza scrupoli le immagini di persone che condividiamo regolarmente sui social senza troppe (forse legittime) paure.

 

© Dennis Ziliotto

 

Tutti i diritti sono riservati. Nessuna parte di questo sito web può essere riprodotta, memorizzata o trasmessa in alcuna forma e con alcun mezzo, elettronico, meccanico o in fotocopia, in disco o in altro modo, compresi cinema, radio, televisione, senza autorizzazione scritta dell’Editore. Le riproduzioni per finalità di carattere professionale, economico o commerciale o comunque per uso diverso da quello personale possono essere effettuate a seguito di specifica autorizzazione rilasciata da New Old Camera srl, viale San Michele del Carso 4, 20144 Milano. info@newoldcamera.it
All rights are reserved. No part of this web site may be reproduced, stored or transmitted in any form or by any means, electronic, mechanical or photocopy on disk or in any other way, including cinema, radio, television, without the written permission of the publisher. The reproductions for purposes of a professional or commercial use or for any use other than personal use can be made as a result of specific authorization issued by the New Old Camera srl, viale San Michele del Carso 4, 20144 Milan, Italy. info@newoldcamera.it

©2024 NOC Sensei – New Old Camera Srl

 

 

 

 

 

Stefania Quintajé è un consulente legale internazionale; si è specializzata in nuove tecnologie, innovazione legale, privacy e proprietà intellettuale. Si occupa di consulenza in-house per gruppi aziendali internazionali come ad esempio Amazon, ABB, NIke, Salesforce, Gartner. In NOC Sensei cercherà di rispondere in modo semplice a dubbi e curiosità sulle nuove tendenze della tecnologia e della fotografia dal punto di vista legale, accompagnandoci anche alla scoperta di casi famosi che hanno coinvolto scatti e fotografi in giro per il mondo. Il suo sito è www.thelegalsybil.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *