Quando l'intelligenza artificiale imita lo Studio Ghibli è omaggio o plagio?

Il nuovo aggiornamento di ChatGpt permette di creare immagini nello stile cinematografico di Miyazaki e non solo. Gli avvocati specializzati ci spiegano se si può parlare di violazione del diritto d'autore
ChatGpt Studio Ghibli
Il nuovo aggiornamento di ChatGpt permette di creare immagini nello stile cinematografico dello Studio Ghibli. Ma si può davvero parlare di violazione del diritto d'autore?

Negli ultimi giorni, ha fatto molto discutere la generazione di immagini da parte di ChatGpt in stile Studio Ghibli, con ritratti in versione Ghibli-ish di Elon Musk, del Signore degli Anelli, di Donald Trump e persino di Giorgia Meloni. Queste immagini, realizzate presumibilmente con il nuovo sistema di generazione di immagini di Gpt-4, sembrano uscite direttamente dalla mano di Hayao Miyazaki. Tuttavia, sotto il profilo giuridico, la questione si rivela molto più complessa di una prima impressione.

Nella lingua inglese esiste una desinenza – ‘-ish’ – che si usa per indicare qualcosa di simile, ma non esattamente uguale: un colore che non è proprio rosso ma ‘reddish’, un comportamento che ricorda quello di una persona senza esserlo del tutto, un'idea vaga di qualcosa che non arriva mai a una definizione precisa.

Questo suffisso esprime sfumature, richiama somiglianze, ma lascia sempre uno spazio di ambiguità. È proprio in questo spazio che si colloca uno dei dibattiti più accesi sul rapporto tra intelligenza artificiale e creatività umana: a cosa siamo di fronte quando un’opera generata dall’AI è così simile ad un'opera protetta che evoca l'originale? È un omaggio, un’imitazione lecita o una violazione dei diritti d'autore?

Lo stile è protetto dal diritto d’autore?

Di norma, lo stile di un autore non è protetto di per sé. Il diritto d'autore tutela espressioni creative tangibili – come disegni, personaggi, testi, video – ma non idee astratte, concetti o stili. In un recente caso in California, in cui alcune artiste hanno contestato la riproduzione del proprio stile da parte di sistemi di AI, il giudice ha chiarito che per provare una violazione è necessario dimostrare che le immagini generate dall’AI siano “sostanzialmente simili” alle opere originali.

Non basterebbe quindi una somiglianza generica: le immagini devono essere così simili da poter essere considerate falsi. Prova, dunque, molto difficile da dare e rispetto alla quale assume una notevole rilevanza anche il prompt utilizzato per generare le immagini. Se contiene riferimenti diretti a opere protette o a un certo autore, potrebbe avere un peso specifico nella valutazione della violazione. Di conseguenza, il problema non è tanto la replica di uno stile in sé, quanto il modo in cui l’AI è stata addestrata. Se il modello ha appreso lo stile analizzando opere protette senza autorizzazione, allora la questione si sposta sull’uso dei dati di training.

Le eccezioni al copyright: Stati Uniti vs Europa

Se un sistema di AI è stato addestrato su immagini protette, è necessario capire se tale utilizzo sia illecito o rientri in un'eccezione giuridicamente prevista. Su questo punto, gli approcci tra Stati Uniti e Unione Europea sono piuttosto diversi. Negli Stati Uniti, il fair use viene valutato caso per caso in base a quattro criteri principali: scopo e carattere dell’uso (se è trasformativo e non commerciale, è più probabile che sia lecito, natura dell’opera originale (le opere più creative sono più protette di quelle fattuali), quantità e sostanzialità (se viene usata una piccola parte dell’opera, il fair use è più probabile) ed effetto sul mercato (se l’uso danneggia il valore commerciale dell’opera originale, è meno probabile che sia lecito).

Nell’Unione Europea, invece, la Direttiva copyright prevede due eccezioni per il cosiddetto text and data mining (Tdm), ossia quella tecnica di analisi automatizzata volta ad analizzare testi e dati in formato digitale avente lo scopo di generare informazioni. La principale di tali eccezioni – principale perché applicabile anche in contesti for profit – è stata recepita in Italia nell’articolo 70-quater della legge sul diritto d’autore. Questa norma consente l’estrazione di testo e dati a prescindere dallo scopo, purché siano rispettate tre condizioni: accesso legale ai contenuti utilizzati per l’estrazione, possibilità di opt-out per i titolari dei diritti, che possono escludere le proprie opere, limitazioni di archiviazione, con divieto di conservare i dati oltre il tempo necessario per l’estrazione.

Il sistema americano ha storicamente consentito una maggiore flessibilità rispetto a quello europeo, tendenzialmente più rigido e caratterizzato da eccezioni al diritto d'autore interpretate in modo molto restrittivo. Tuttavia, gli ultimi casi giudiziari statunitensi, in particolare Thomson Reuters v. Ross Intelligence, recentemente concluso, sembrano indicare un approccio più rigoroso nella valutazione del fair use.

Ad esempio, la semplice conversione del testo protetto in dati numerici per l’addestramento dell’AI, effettuata da Ross Intelligence, non è stata considerata una trasformazione sufficiente a giustificare il fair use. Se questo orientamento dovesse consolidarsi, potrebbe portare a una maggiore uniformità nei risultati delle numerose cause già intentate.

L’AI Act e il futuro della regolamentazione

I prodotti come il generatore di immagini nativo di Gpt-4o operano oggi in una zona grigia. Lo stile non è esplicitamente protetto dal diritto d'autore, con la conseguenza che i sistemi di AI non infrangerebbero la legge semplicemente generando immagini che assomigliano ai film dello Studio Ghibli o di altri autori. Al contempo, se la somiglianza venisse ottenuta addestrando il modello su milioni di fotogrammi protetti e non tale uso non fosse giustificato da nessuna eccezione, esso potrebbe essere qualificato come una violazione del diritto d'autore. Anche in tal caso, però, diventa fondamentale poter fornire prova della violazione ed è proprio intorno a tale prova che si decideranno alcuni dei contenziosi più rilevanti in questo ambito.

In questo scenario ancora incerto, la regolamentazione europea, che impone ai fornitori di modelli di intelligenza artificiale per finalità generali di redigere e aggiornare la documentazione tecnica del modello (comprendente il processo di addestramento e prova, nonché i risultati della valutazione), così come tutte le informazioni necessarie per lo sviluppo e l’integrazione del modello, potrebbe giocare un ruolo chiave nel definire regole più chiare e garantire maggiore trasparenza nel modo in cui l’AI apprende e genera contenuti.

Instagram content