Diritto d’autore e intelligenza artificiale: il quadro completo tra Legge 132/2025, AI Act e contratti

Diritto d'autore e intelligenza artificiale: il quadro completo tra Legge 132/2025, AI Act e contratti

Diritto d’autore e intelligenza artificiale: il quadro completo tra Legge 132/2025, AI Act e contratti

L’intelligenza artificiale ha già cambiato la produzione audiovisiva. Cambia come si sviluppano i soggetti, come si generano gli effetti visivi, come si duplicano le voci, come si distribuiscono i contenuti. E mentre il mercato accelera, il quadro legale ha smesso di essere un cantiere aperto: con la Legge 132/2025 in vigore dal 10 ottobre 2025 e l’AI Act europeo operativo, le regole ci sono. Il problema è che la maggior parte di chi usa l’AI nella produzione non le conosce.

Questa guida risponde alle domande che autori, registi, produttori e creator si pongono ogni giorno: chi detiene i diritti su un’opera co-creata con l’AI, quando il training su opere protette è lecito e quando no, cosa inserire nei contratti per proteggersi, e cosa rischi se non lo fai.

Chi è l’autore di un’opera creata con l’AI?

La risposta del diritto italiano ed europeo è chiara: il diritto d’autore protegge l’ingegno umano. Un’opera è tutelabile solo se rispecchia le scelte libere e creative di un autore in carne e ossa — è il test consolidato dalla Corte di Giustizia UE (da Infopaq a Cofemel). Un algoritmo, da solo, non è autore.

Questo non significa che un’opera realizzata con l’AI non sia protetta. Significa che la tutela dipende da quanto il processo creativo è rimasto nelle mani di una persona. Chi scrive i prompt, guida le iterazioni e opera scelte estetiche determinanti può essere autore — se il suo contributo è realmente determinante.

→ Per la guida completa su autorialità e titolarità nel diritto italiano, leggi Chi è l’autore? Titolarità del diritto d’autore
→ Il caso concreto: Opera creata da intelligenza artificiale — la Cassazione italiana

Diritto d’autore e intelligenza artificiale: il training AI sulle opere cinematografiche: serve una licenza

Addestrare un modello su film, colonne sonore o sceneggiature coinvolge diritti d’autore e diritti connessi: riproduzione, estrazione da banche dati, comunicazione al pubblico. Ogni fase del processo — dallo scraping alla creazione del dataset, dalla pubblicazione online all’addestramento vero e proprio — attiva diritti esclusivi.

Le eccezioni TDM non coprono tutto il processo

Il diritto europeo prevede eccezioni per il text and data mining (artt. 3 e 4 della Direttiva DSM 2019/790, recepiti in Italia agli artt. 70-quater e 70-quinquies L. 633/1941). Ma queste eccezioni coprono solo una parte del processo. Non coprono la fase di generazione dell’output. Non coprono tutti gli atti di riproduzione intermedi. E non esonera da responsabilità chi usa contenuti senza il consenso del titolare dei diritti.

→ Per il quadro completo sul text and data mining e le eccezioni italiane, leggi Diritto d’autore su internet — come difenderti

Conclusione: in assenza di riforma, il training AI su contenuti protetti richiede una licenza. Non è un’opinione: è una lettura del diritto vigente confermata anche dall’AI Act europeo (Reg. 2024/1689).

Diritto d’autore e intelligenza artificiale: le prime sentenze internazionali

Il contenzioso si sta moltiplicando. Disney, Universal e Warner Bros. hanno avviato cause contro Midjourney negli USA (2025) per uso non autorizzato delle loro opere.

→ Approfondimento: Disney vs Midjourney — la prima causa degli studios contro un’azienda AI

Il settlement Anthropic con gli autori (settembre 2025) ha segnalato che anche negli Stati Uniti la strada del licensing obbligatorio è ormai aperta.

→ Approfondimento: Anthropic — la sentenza e il settlement da 1,5 miliardi
→ Leggi anche: Scrittori in causa contro OpenAI — il training sui libri protetti

Quando l’output AI è protetto: il ruolo del controllo creativo umano

Il caso The Brutalist e gli Oscar 2025

Il film The Brutalist ha vinto l’Oscar 2025 per Adrien Brody, la cui pronuncia ungherese era stata modificata con AI. L’Academy ha confermato l’eleggibilità dei film con componenti AI, purché l’apporto umano resti significativo. È un segnale di mercato importante — ma non risolve la questione legale a monte: su quali contenuti è stato addestrato il modello usato?

→ Leggi anche: Immagini create con intelligenza artificiale e diritto d’autore
→ Il caso Boris Eldagsen: Fotografia AI e diritto d’autore

Diritto d’autore e intelligenza artificiale: la Legge 132/2025: cosa cambia per il cinema

L’Italia non sta più aspettando: il 10 ottobre 2025 è entrata in vigore la Legge n. 132/2025 “Disposizioni e deleghe al Governo in materia di intelligenza artificiale”. Non sostituisce la Legge 633/1941 sul diritto d’autore: la integra con modifiche mirate, contenute nell’articolo 25.

Tre novità concrete per autori e produttori

  1. L’art. 1 LDA viene riscritto. La protezione spetta alle “opere dell’ingegno umano di carattere creativo”. Un’opera realizzata con l’ausilio di AI è tutelata solo se costituisce il risultato del lavoro intellettuale dell’autore. Se l’AI ha fatto tutto da sola, non c’è copyright — e nel contenzioso la prova del contributo creativo umano diventa decisiva.
  2. Nasce il nuovo art. 70-septies LDA. Le riproduzioni e le estrazioni da opere per il training di modelli AI (anche generativa) sono consentite, ma esclusivamente nel rispetto delle eccezioni TDM già previste dagli artt. 70-ter e 70-quater. Nessuna deroga aggiuntiva per uso commerciale: chi addestra modelli su contenuti audiovisivi protetti senza autorizzazione o senza rispettare l’opt-out del titolare è fuori dalla legalità.

→ Per la guida completa alla Legge 132/2025 applicata alla musica, leggi AI musica diritto d’autore
→ Leggi anche: AI e copyright musicale — Suno, Udio e le cause miliardarie

  1. Il deepfake diventa reato penale. Il nuovo art. 612-quater c.p. prevede la reclusione da uno a cinque anni per chi diffonde senza consenso immagini, video o audio falsificati tramite AI. Per il cinema questo riguarda direttamente voice cloning, digital resurrection e avatar non autorizzati di attori.

→ Approfondimento: Sora 2, deepfake e copyright — le lezioni legali
→ Leggi anche: Scarlett Johansson contro OpenAI — voice cloning e diritto all’immagine

Cosa resta aperto

La legge stabilisce il principio ma lascia spazio interpretativo: sarà la giurisprudenza a definire dove finisce l'”apporto umano sufficiente” e dove inizia l’output puramente automatizzato. Per autori e produttori la raccomandazione pratica è una sola: documentare sempre il processo creativo.

Contratti e clausole: cosa deve fare subito il produttore

I termini di servizio dei provider AI non proteggono il produttore. La logica della giurisprudenza europea (YouTube/Cyando, CGUE C-682/18 e C-683/18) si applica anche ai modelli generativi: la presenza di clausole contrattuali non azzera la responsabilità del provider — né del produttore che usa il modello.

Le azioni concrete da fare oggi:

  • Inserire clausole di opt-out dal training AI in ogni contratto di cessione dei diritti
  • Aggiornare i contratti con cast e crew con clausole su avatar, voice cloning e digital resurrection (in linea con i contratti SAG-AFTRA e WGA post-sciopero 2023)
  • Verificare le policy di broadcaster e fondi: molti richiedono già dichiarazioni sull’uso di AI in produzione

→ Guida completa: Come proteggersi dall’AI — le clausole da inserire nei contratti
→ Leggi anche: Catena dei diritti cinematografici — cosa deve contenere

Per approfondire leggi anche: 


Domande frequenti — AI e diritto d’autore

Un’opera realizzata con Midjourney, Sora o ChatGPT è protetta dal diritto d’autore? Dipende dal tuo contributo creativo. Se hai scritto prompt dettagliati, selezionato tra molti output, modificato e integrato il risultato in modo significativo, la tutela è possibile. Se hai scritto “un tramonto romantico” e pubblicato il primo risultato, quasi certamente no. La Legge 132/2025 richiede che il contributo umano sia “determinante” — e in caso di contestazione sei tu a doverlo dimostrare.

Posso usare un modello AI addestrato su film o canzoni protette? Usare lo strumento è lecito. Il problema è a monte: se il modello è stato addestrato su opere protette senza licenza, chi lo ha creato ha probabilmente violato la legge — non tu. Ma attenzione: se l’output del modello riproduce elementi riconoscibili di un’opera specifica, la responsabilità può ricadere anche sull’utente.

Il training AI sulle mie opere è legale senza il mio consenso? In Europa, le eccezioni TDM (artt. 70-quater e 70-quinquies l.d.a.) permettono il mining per ricerca scientifica senza scopo commerciale. Per uso commerciale, il titolare può fare opt-out — ma deve farlo esplicitamente. Se non hai mai inserito una clausola di opt-out nei tuoi contratti di cessione, le tue opere potrebbero essere usate per addestrare modelli AI senza che tu ne sappia nulla.

Il deepfake della mia voce o del mio volto è reato in Italia? Sì. Dal 10 ottobre 2025 il nuovo art. 612-quater c.p. prevede la reclusione da uno a cinque anni per chi diffonde senza consenso immagini, video o audio falsificati tramite AI. Prima ancora, il GDPR tutela i dati biometrici (volto, voce) come categorie particolari che richiedono consenso esplicito.

Come posso proteggere le mie opere dal training AI? Tre strumenti concreti: inserisci una clausola di opt-out in tutti i nuovi contratti di cessione dei diritti; aggiungi il meta-tag o usa piattaforme che rispettano il protocollo di opt-out; registra le tue opere alla SIAE per avere prova della data certa. Non è una protezione assoluta, ma è la base da cui partire.

I miei contratti esistenti mi proteggono? Quasi certamente no, se sono stati firmati prima del 2023. La maggior parte dei contratti di cessione standard non contemplava l’uso AI. Andrebbero aggiornati con clausole specifiche su training, avatar, voice cloning e digital resurrection. → Guida alle clausole anti-AI nei contratti

Cosa rischio se uso AI in produzione senza dichiararlo al broadcaster o al fondo? Dipende dai termini del contratto e del bando. Molti broadcaster e fondi pubblici richiedono già dichiarazioni sull’uso di AI in produzione. Omettere questa informazione può configurare una dichiarazione falsa con conseguenze sul finanziamento. Verifica sempre le policy prima di firmare.

A settembre 2026 DANDI è alla Civica Scuola di Cinema Luchino Visconti di Milano con il workshop Dal progetto al pitch — tre weekend di formazione legale per autori e produttori indipendenti. Scopri il programma →

Lo Studio Legale Dandi fornisce assistenza legale in Diritto d'autore. Dai un'occhiata ai nostri servizi oppure contattaci!

Avvocata specializzata in diritto d'autore, proprietà intellettuale e diritto dello spettacolo. A Roma dal 2003, lavoro con registi, produttori, musicisti e indipendenti — dalla fase di sviluppo fino alla distribuzione.

Site Footer