Con l’intelligenza artificiale (in breve AI dall’inglese “Artificial Intelligence”), le persone comuni hanno spesso la sensazione di navigare tra Scilla e Cariddi, tra la cronaca sensazionalistica che narra di prodotti sempre più sorprendenti generati dalle straordinarie performance dei sistemi AI, e l’imperscrutabile impenetrabilità della tecnologia AI e dei suoi inquietanti effetti. Lo stesso termine “intelligenza” ispira quasi un timore reverenziale di fronte a sistemi in grado di accumulare, analizzare ed elaborare quantità sovrumane di dati a velocità senza precedenti, ma anche potenzialmente in grado sottrarsi al controllo umano.
Anche nel microcosmo del diritto d’autore si ritrovano le posizioni pessimistiche degli “apocalittici” – che continuano a temere l’impatto sulle professioni creative e le industrie e quelle ottimistiche degli “integrati”, che fanno contratti di licenza per consentire l’addestramento della AI e apprezzano i risparmi nella produzione di contenuti.
In verità, con l’AI generativa siamo solo all’inizio di un percorso che presumibilmente determinerà gli sviluppi e forse anche la trasformazione del diritto d’autore per gli anni a venire. È tuttavia possibile sin d’ora delineare due aspetti essenziali, a monte e a valle dei processi di IA.
“A monte” dei processi, l’AI viene addestrata memorizzando dataset che contengono anche opere e contenuti[1]. Negli USA, lo sfruttamento delle opere per il training AI è oggetto di vari ricorsi giudiziari; dai loro esiti si potrà meglio capire se l’estrazione di testi e dati (TDM – Text Data Mining) a scopo commerciale rientra nella sfera del Fair Use e, se sì, entro quali limiti. Le Big Tech sostengono che il carattere trasformativo della AI generativa esenti il prodotto AI da obblighi rispetto ai contenuti usati per il training, mentre i produttori di contenuti sottolineano l’incidenza commerciale dei prodotti AI sui mercati dei contenuti stessi e quindi sul loro normale sfruttamento. Ogni previsione appare azzardata per quanto riguarda i giudizi negli USA. La direttiva europea sul Copyright del 2019 ha coperto la TDM con una controversa eccezione, ma molti dubbi sono stati avanzati sulla sua applicabilità alla AI generativa.
Si discute anche degli effetti “a valle” della AI generativa, riguardo alla possibilità di proteggere i prodotti dell’AI con il copyright. Su questo punto la situazione appare forse più chiara dal punto di vista giuridico, ma non per questo meno problematica. Allo stato attuale, prevale tra gli esperti l’opinione, basata su una giurisprudenza consolidata, che le “opere” della AI non siano proteggibili poiché non sono frutto dell’ingegno umano, fattore indispensabile per l’attribuzione originaria dei diritti d’autore[2]. Questa concezione umanistica o antropocentrica, come si usa dire nei documenti europei riguardanti lo sviluppo della AI, è radicata nella Convenzione di Berna, la più antica in materia di diritto d’autore, alla quale aderiscono oltre 190 stati.
Negli USA, il requisito del significativo contributo umano nella creazione delle opere è costantemente richiamato dal Copyright Office[3], che non ritiene possano essere protette le opere prodotte da una macchina o da un processo meccanico automatico o casuale, mentre apre alla possibilità che un’opera sia protetta da copyright quando il sistema AI è un mero supporto alla creazione.[4] L’obbligo di dichiarare l’eventuale inclusione di contenuti generati dall’intelligenza artificiale e spiegare sinteticamente quale sia il contributo dell’autore umano discende dal Copyright Act[5], che lega questo elemento all’esistenza, alla titolarità e alla durata del diritto d’autore. Analoghi argomenti sono esposti nelle sentenze della Corte di Giustizia europea che ha esaminato questioni legate alla qualifica di autore e alla proteggibilità delle opere dell’ingegno.
L’Unione Europea ha pubblicato nel 2018 la Comunicazione L’intelligenza artificiale per l’Europa[6], dando attenzione all’innovazione e ai rischi suscitati dalla AI. La proprietà intellettuale non era tuttavia contemplata nella prima bozza di Regolamento sulla AI[7], e le norme sul copyright sono state inserite su impulso del Parlamento Europeo ed hanno finalmente trovato spazio nel testo legislativo del 13 giugno di quest’anno[8] . L’AI Act presenta disposizioni che hanno impatto sugli aspetti a monte (machine training, deep learning) e a valle (opere generate dall’IA), in particolare per quanto riguarda i cosiddetti modelli GPAI – General Purpose AI,[9] o modelli di intelligenza artificiale generale, non legata quindi a compiti specifici ma, al contrario, in grado di “generalizzare” ciò che ha appreso, anche in contesti qualitativamente molto diversi, quindi di interpretare la sua funzione in modo estremamente ampio e flessibile.
Nel AI Act si evidenza che i modelli AI in grado di generare testi, immagini, e altri contenuti, “presentano opportunità di innovazione uniche, ma anche sfide per artisti, autori e altri creatori e per le modalità con cui i loro contenuti creativi sono creati, distribuiti, utilizzati e fruiti”. Lo stesso AI Act contiene essenziali obblighi di trasparenza miranti a garantire che i modelli siano sviluppati e applicati (nonché incorporati in sistemi diversi) in modo da assicurare adeguate tracciabilità ed esplicabilità (explainability) per garantire processi trasparenti e aiutare le persone (direttamente o indirettamente interessate) a comprendere perché un modello di intelligenza artificiale genera certe decisioni attraverso la descrizione del suo funzionamento. A monte, per l’estrazione di testi e di dati, sono obbligatorie misure che consentano di identificare e rendere effettive le riserve dei titolari dei diritti[10] sull’uso dei loro materiali nell’addestramento dei sistemi. Fondamentale è soprattutto il nuovo obbligo di rendere disponibile un riassunto dettagliato dei contenuti usati per l’addestramento dei modelli di AI generale, in un formato pubblicato dall’AI Office, cioè l’Ufficio istituito presso la Commissione in funzione del sistema unico europeo di governance dell’AI.[11]
Tutte queste misure non rassicurano gli autori e gli artisti interpreti che contestano l’interpretazione estensiva dell’eccezione TDM alla AI generativa, che di certo non era presa in considerazione quando la direttiva (UE) 790/2019 – che contiene la norma – è stata redatta dalla Commissione UE. Oltre ad essere iniqua rispetto agli sfruttamenti avvenuti prima che, con l’eccezione stessa, fosse indicata ai titolari dei diritti la facoltà di riservarsi l’uso dei loro contenuti (un divieto sintetizzato nel termine opt-out[12]), la sua estensione alla AI generativa è realizzata senza alcuna verifica d’impatto né confronto con le parti sociali coinvolte.[13]
A valle, l’AI Act propone, nel suo Capo IV, intitolato “Obblighi di trasparenza per i fornitori e i deployer di determinati sistemi di IA” alcune tutele per gli utenti finali che, quando interagiscono con sistemi AI oppure fruiscono di contenuti manipolati o generati da IA, devono essere informati in modo adeguato, mediante forme di segnalazione automatiche o “etichette” (labeling) di video, immagini, suoni o testi creati in modo sintetico. In particolare la disciplina affronta il tema scottante dei deep fake, con obblighi meno stringenti per i contenuti che fanno parte di “un’analoga opera o di un programma manifestamente artistici, creativi, satirici o fittizi,(art. 50.4) rispetto ai contenuti informativi di pubblico interesse.
Se non altro, sul fronte tecnologico affiora una maggiore sensibilità su questo problema, tanto che Open AI e altri produttori AI hanno accelerato la ricerca di sistemi per il riconoscimento di deep fake[14]. In più, la Coalition for Content Provenance and Authenticity (C2PA), di cui fanno parte Adobe, Microsoft, BBC, Google, Sony e molti altri, sta sviluppando standard basati sulle esigenze di creatori, professionisti legali, media e piattaforme online, per certificare la fonte e la storia (o la provenienza) dei contenuti digitali.
Nell’attesa che l’AI Act entri in vigore secondo la tempistica in esso prevista, è stato presentato dal Sottosegretario alla Presidenza del Consiglio un disegno di legge[15] che ha l’ambizione di tracciare la via italiana all’Intelligenza Artificiale. Gli articoli 23 e 24 anticipano l’inserimento nella normativa italiana di elementi dell’AI Act, collocando le disposizioni sui deep fake nel Testo Unico dei Servizi Media Audiovisivi (nuovo articolo 42-bis).
È prematuro parlare degli effetti potenziali del ddl sulla estrazione di testi e di dati, che presenta forti criticità per le categorie creative italiane. Infatti, mentre infuriano le discussioni (e negli USA le cause) sull’applicabilità alla AI generativa dell’eccezione per l’estrazione di testi e di dati già disciplinata dalla Legge sul diritto d’autore (art. 70-quater), il testo ne prevede l’estensione esplicita ai sistemi e modelli di intelligenza artificiale generativa a scopi commerciali: di fatto un regalo alle Big Tech. Vedremo se il testo cambierà nel corso dell’iter parlamentare.
Nell’articolo sulla sfera di applicazione delle nuove norme si specifica che qualsiasi fornitore che immetta un modello di AI di carattere generale sul mercato dell’UE deve attenersi all’obbligo di trasparenza, con l’intento esplicito di garantire condizioni di parità tra i fornitori di modelli di AI, e di bloccare i tentativi di ottenere un vantaggio competitivo nel mercato dell’UE grazie a standard di copyright inferiori a quelli previsti nell’Unione. A questa norma si affiancano anche i negoziati avviati in diversi consessi internazionali, come il G7 per arrivare a un coordinamento il più esteso e condiviso possibile.
Va tenuto a mente che gli obiettivi del Regolamento europeo sull’AI sono molteplici e le priorità sono di diverso livello, con effetti che vanno ben oltre le regole applicabili all’informazione, alla cultura e al copyright; in primo luogo, si stabilisce il divieto di applicazioni dell’AI per pratiche ritenute inaccettabili, come la manipolazione delle persone attraverso tecniche subliminali, lo sfruttamento delle vulnerabilità di gruppi, quali i minori o le persone con disabilità, o come l’identificazione biometrica da remoto “in tempo reale”. Inoltre, è definita una serie di obblighi cui devono attenersi i sistemi AI ad alto rischio, quelli che incidono sulla salute e la sicurezza o per i diritti fondamentali delle persone fisiche. Nel suo complesso, la nuova legge europea intende tracciare un solco nella disciplina di questi sistemi in modo che questo esempio sia seguito da altri Paesi tanto da creare, come avvenuto con il GDPR per la protezione dei dati personali, un effetto Bruxelles strategicamente cruciale per il futuro UE e per i suoi cittadini[16].