Incontri e scontri tra copyright “umano” e IA “antropocentrica”

Presentazione “Io Sono Cultura 2024”
11/19/2024
Piccoli Comuni e Tipicità
11/20/2024

Incontri e scontri tra copyright “umano” e IA “antropocentrica”

Con l’intelligenza artificiale (in breve AI dall’inglese “Artificial Intelligence”), le persone comuni hanno spesso la sensazione di navigare tra Scilla e Cariddi, tra la cronaca sensazionalistica che narra di prodotti sempre più sorprendenti generati dalle straordinarie performance dei sistemi AI, e l’imperscrutabile impenetrabilità della tecnologia AI e dei suoi inquietanti effetti. Lo stesso termine “intelligenza” ispira quasi un timore reverenziale di fronte a sistemi in grado di accumulare, analizzare ed elaborare quantità sovrumane di dati a velocità senza precedenti, ma anche potenzialmente in grado sottrarsi al controllo umano.

Anche nel microcosmo del diritto d’autore si ritrovano le posizioni pessimistiche degli “apocalittici” – che continuano a temere l’impatto sulle professioni creative e le industrie e quelle ottimistiche degli “integrati”, che fanno contratti di licenza per consentire l’addestramento della AI e apprezzano i risparmi nella produzione di contenuti.

In verità, con l’AI generativa siamo solo all’inizio di un percorso che presumibilmente determinerà gli sviluppi e forse anche la trasformazione del diritto d’autore per gli anni a venire. È tuttavia possibile sin d’ora delineare due aspetti essenziali, a monte e a valle dei processi di IA.

“A monte” dei processi, l’AI viene addestrata memorizzando dataset che contengono anche opere e contenuti[1]Negli USA, lo sfruttamento delle opere per il training AI è oggetto di vari ricorsi giudiziari; dai loro esiti si potrà meglio capire se l’estrazione di testi e dati (TDM – Text Data Mining) a scopo commerciale rientra nella sfera del Fair Use e, se sì, entro quali limiti. Le Big Tech sostengono che il carattere trasformativo della AI generativa esenti il prodotto AI da obblighi rispetto ai contenuti usati per il training, mentre i produttori di contenuti sottolineano l’incidenza commerciale dei prodotti AI sui mercati dei contenuti stessi e quindi sul loro normale sfruttamento. Ogni previsione appare azzardata per quanto riguarda i giudizi negli USA. La direttiva europea sul Copyright del 2019 ha coperto la TDM con una controversa eccezione, ma molti dubbi sono stati avanzati sulla sua applicabilità alla AI generativa.

Si discute anche degli effetti “a valle” della AI generativa, riguardo alla possibilità di proteggere i prodotti dell’AI con il copyright. Su questo punto la situazione appare forse più chiara dal punto di vista giuridico, ma non per questo meno problematica. Allo stato attuale, prevale tra gli esperti l’opinione, basata su una giurisprudenza consolidata, che le “opere” della AI non siano proteggibili poiché non sono frutto dell’ingegno umano, fattore indispensabile per l’attribuzione originaria dei diritti d’autore[2]. Questa concezione umanistica o antropocentrica, come si usa dire nei documenti europei riguardanti lo sviluppo della AI, è radicata nella Convenzione di Berna, la più antica in materia di diritto d’autore, alla quale aderiscono oltre 190 stati.

Negli USA, il requisito del significativo contributo umano nella creazione delle opere è costantemente richiamato dal Copyright Office[3], che non ritiene possano essere protette le opere prodotte da una macchina o da un processo meccanico automatico o casuale, mentre apre alla possibilità che un’opera sia protetta da copyright quando il sistema AI è un mero supporto alla creazione.[4] L’obbligo di dichiarare l’eventuale inclusione di contenuti generati dall’intelligenza artificiale e spiegare sinteticamente quale sia il contributo dell’autore umano discende dal Copyright Act[5], che lega questo elemento all’esistenza, alla titolarità e alla durata del diritto d’autore. Analoghi argomenti sono esposti nelle sentenze della Corte di Giustizia europea che ha esaminato questioni legate alla qualifica di autore e alla proteggibilità delle opere dell’ingegno.

L’Unione Europea ha pubblicato nel 2018 la Comunicazione L’intelligenza artificiale per l’Europa[6], dando attenzione all’innovazione e ai rischi suscitati dalla AI. La proprietà intellettuale non era tuttavia contemplata nella prima bozza di Regolamento sulla AI[7], e le norme sul copyright sono state inserite su impulso del Parlamento Europeo ed hanno finalmente trovato spazio nel testo legislativo del 13 giugno di quest’anno[8] . L’AI Act presenta disposizioni che hanno impatto sugli aspetti a monte (machine training, deep learning) e a valle (opere generate dall’IA)in particolare per quanto riguarda i cosiddetti modelli GPAI – General Purpose AI,[9] o modelli di intelligenza artificiale generale, non legata quindi a compiti specifici ma, al contrario, in grado di “generalizzare” ciò che ha appreso, anche in contesti qualitativamente molto diversi, quindi di interpretare la sua funzione in modo estremamente ampio e flessibile.

Nel AI Act si evidenza che i modelli AI in grado di generare testi, immagini, e altri contenuti, “presentano opportunità di innovazione uniche, ma anche sfide per artisti, autori e altri creatori e per le modalità con cui i loro contenuti creativi sono creati, distribuiti, utilizzati e fruiti”. Lo stesso AI Act contiene essenziali obblighi di trasparenza miranti a garantire che i modelli siano sviluppati e applicati (nonché incorporati in sistemi diversi) in modo da assicurare adeguate tracciabilità ed esplicabilità (explainability) per garantire processi trasparenti e aiutare le persone (direttamente o indirettamente interessate) a comprendere perché un modello di intelligenza artificiale genera certe decisioni attraverso la descrizione del suo funzionamento. A monte, per l’estrazione di testi e di dati, sono obbligatorie misure che consentano di identificare e rendere effettive le riserve dei titolari dei diritti[10] sull’uso dei loro materiali nell’addestramento dei sistemi. Fondamentale è soprattutto il nuovo obbligo di rendere disponibile un riassunto dettagliato dei contenuti usati per l’addestramento dei modelli di AI generale, in un formato pubblicato dall’AI Office, cioè l’Ufficio istituito presso la Commissione in funzione del sistema unico europeo di governance dell’AI.[11]

 

European AI Office

 

Tutte queste misure non rassicurano gli autori e gli artisti interpreti che contestano l’interpretazione estensiva dell’eccezione TDM alla AI generativa, che di certo non era presa in considerazione quando la direttiva (UE) 790/2019 – che contiene la norma – è stata redatta dalla Commissione UE. Oltre ad essere iniqua rispetto agli sfruttamenti avvenuti prima che, con l’eccezione stessa, fosse indicata ai titolari dei diritti la facoltà di riservarsi l’uso dei loro contenuti (un divieto sintetizzato nel termine opt-out[12]), la sua estensione alla AI generativa è realizzata senza alcuna verifica d’impatto né confronto con le parti sociali coinvolte.[13]

A valle, l’AI Act propone, nel suo Capo IV, intitolato “Obblighi di trasparenza per i fornitori e i deployer di determinati sistemi di IA” alcune tutele per gli utenti finali che, quando interagiscono con sistemi AI oppure fruiscono di contenuti manipolati o generati da IA, devono essere informati in modo adeguato, mediante forme di segnalazione automatiche o “etichette” (labeling) di video, immagini, suoni o testi creati in modo sintetico. In particolare la disciplina affronta il tema scottante dei deep fake, con obblighi meno stringenti per i contenuti che fanno parte di “un’analoga opera o di un programma manifestamente artistici, creativi, satirici o fittizi,(art. 50.4) rispetto ai contenuti informativi di pubblico interesse.

Se non altro, sul fronte tecnologico affiora una maggiore sensibilità su questo problema, tanto che Open AI e altri produttori AI hanno accelerato la ricerca di sistemi per il riconoscimento di deep fake[14]. In più, la Coalition for Content Provenance and Authenticity (C2PA), di cui fanno parte Adobe, Microsoft, BBC, Google, Sony e molti altri, sta sviluppando standard basati sulle esigenze di creatori, professionisti legali, media e piattaforme online, per certificare la fonte e la storia (o la provenienza) dei contenuti digitali.

Nell’attesa che l’AI Act entri in vigore secondo la tempistica in esso prevista, è stato presentato dal Sottosegretario alla Presidenza del Consiglio un disegno di legge[15] che ha l’ambizione di tracciare la via italiana all’Intelligenza Artificiale. Gli articoli 23 e 24 anticipano l’inserimento nella normativa italiana di elementi dell’AI Act, collocando le disposizioni sui deep fake nel Testo Unico dei Servizi Media Audiovisivi (nuovo articolo 42-bis).

 

 

Zarya of the Dawn

È prematuro parlare degli effetti potenziali del ddl sulla estrazione di testi e di dati, che presenta forti criticità per le categorie creative italiane. Infatti, mentre infuriano le discussioni (e negli USA le cause) sull’applicabilità alla AI generativa dell’eccezione per l’estrazione di testi e di dati già disciplinata dalla Legge sul diritto d’autore (art. 70-quater), il testo ne prevede l’estensione esplicita ai sistemi e modelli di intelligenza artificiale generativa a scopi commerciali: di fatto un regalo alle Big Tech. Vedremo se il testo cambierà nel corso dell’iter parlamentare.

Nell’articolo sulla sfera di applicazione delle nuove norme si specifica che qualsiasi fornitore che immetta un modello di AI di carattere generale sul mercato dell’UE deve attenersi all’obbligo di trasparenza, con l’intento esplicito di garantire condizioni di parità tra i fornitori di modelli di AI, e di bloccare i tentativi di ottenere un vantaggio competitivo nel mercato dell’UE grazie a standard di copyright inferiori a quelli previsti nell’Unione. A questa norma si affiancano anche i negoziati avviati in diversi consessi internazionali, come il G7 per arrivare a un coordinamento il più esteso e condiviso possibile.

Va tenuto a mente che gli obiettivi del Regolamento europeo sull’AI sono molteplici e le priorità sono di diverso livello, con effetti che vanno ben oltre le regole applicabili all’informazione, alla cultura e al copyright; in primo luogo, si stabilisce il divieto di applicazioni dell’AI per pratiche ritenute inaccettabili, come la manipolazione delle persone attraverso tecniche subliminali, lo sfruttamento delle vulnerabilità di gruppi, quali i minori o le persone con disabilità, o come l’identificazione biometrica da remoto “in tempo reale”. Inoltre, è definita una serie di obblighi cui devono attenersi i sistemi AI ad alto rischio, quelli che incidono sulla salute e la sicurezza o per i diritti fondamentali delle persone fisiche. Nel suo complesso, la nuova legge europea intende tracciare un solco nella disciplina di questi sistemi in modo che questo esempio sia seguito da altri Paesi tanto da creare, come avvenuto con il GDPR per la protezione dei dati personali, un effetto Bruxelles strategicamente cruciale per il futuro UE e per i suoi cittadini[16].

 

[1] Fondazione Symbola e Unioncamere, Io sono Cultura Rapporto 2023 – Ma è davvero così creativa l’Intelligenza artificiale? pag. 50.
[2] Sull’indispensabilità del contributo umano concordano gli interventi nella seconda giornata del Congresso internazionale di ALAI (Association Littéraire et Artistique Internationale) a Parigi, giugno 2023, Atti in corso di pubblicazione.
[3] Fondazione Symbola e Unioncamere, Io sono Cultura Rapporto 2023 – Ma è davvero così creativa l’Intelligenza artificiale?, pag. 50
 per i due casi più famosi trattati dal Copyright Office, “A recent entrance to paradise”, Steven Thaler/Creative Machine e “Darya of the Dawn, Kristina Kashtanova.
[4] Copyright Registration Guidance: Works Containing Material Generated by Artificial Intelligence, Marzo 2023. Il Copyright Office precisa che si deve determinare “whether the ‘work’ is basically one of human authorship, with the computer [or other device] merely being an assisting instrument, or whether the traditional elements of authorship in the work (literary, artistic, or musical expression or elements of selection, arrangement, etc.) were actually conceived and executed not by man but by a machine.”
[5]  17 U.S.C. 409(10).
[6] Doc. COM (2018) 237 final del 25.4.2018.
[7] COM (2021) 206 final – Proposta di Regolamento del Parlamento Europeo e del Consiglio concernente norme armonizzate sull’Intelligenza Artificiale (Artificial Intelligence Act).
[8] Regolamento UE 2024/1689 del Parlamento Europeo e del Consiglio, 13.06.2024.
[9] I modelli GPAI corrispondono sostanzialmente a quelli che sono anche chiamati foundation models, così definiti dalla Standford University AI Lab: “an AI system model that is trained on broad data at scale, is designed for generality of output, and can be adapted to a wide range of distinctive tasks”. Tra questi, rientrano i modelli di IA generativa come ChatGPT, Stable Diffusion, Midjourney, ecc. basati sui dati estratti dal web.
[10] Art. 4 della direttiva (UE) 2019/790
[11] Commissione Europea, Ufficio europeo per l’AI.
[12] La società degli Autori francese SACEM è corsa ai ripari nel 2023 notificando che per tutte le opere musicali nel suo repertorio, si applica la riserva (in Francia “droit d’opposition”), e che tutti gli sviluppatori e i fornitori AI che includono opere amministrate dalla SACEM nei dataset per l’addestramento dell’AI devono ottenere l’autorizzazione negoziando con SACEM stessa.
[13] Authors’, performers’ and other creative workers’ organisations joint statement on generative artificial intelligence and the EU AI Act, Bruxelles 25 Aprile 2024.
[14] Cade Metz and Tiffany Hsu, OpenAI Releases ‘Deepfake’ Detector to Disinformation Researchers, New York Times, 7 maggio 2024.
[15] Comunicato stampa del Consiglio dei Ministri n. 78, 23 Aprile 2024.
[16] Brussels effect è l’espressione utilizzata da Anu Bradford per indicare la capacità della UE di elaborare e approvare norme che sono esportate fuori dalle frontiere comunitarie grazie anche al rilievo del suo mercato interno.

 

Comments are closed.