Immagina di poter creare un video di Tom Cruise che balla il tango sotto la pioggia. O di Scarlett Johansson che promuove il tuo prodotto. O di un politico che dice cose mai dette. Tutto in 20 secondi, con un semplice comando testuale. Benvenuti nell’era di Sora 2, il generatore di video AI di OpenAI lanciato a dicembre 2024. È tecnologia straordinaria. Ed è anche un incubo legale in attesa di esplodere.
Cos’è Sora 2 e perché fa paura
Sora 2 è l’evoluzione del modello text-to-video di OpenAI. Tu scrivi “un astronauta che cammina sulla Luna”, l’AI genera un video fotorealistico completo di movimenti fluidi, espressioni naturali e illuminazione cinematografica. La differenza con DALL-E o Midjourney? Quelli fanno immagini statiche. Sora crea video in movimento indistinguibili dalla realtà. Il problema? Per imparare a fare questo, Sora è stata addestrata su milioni di video protetti da copyright: film, serie TV, contenuti YouTube, produzioni professionali. Senza chiedere permesso a nessuno.
Lo scandalo Hollywood
A settembre 2024, pochi giorni prima del lancio, è scoppiato il caos tra OpenAI e le grandi agenzie di Hollywood (WME, CAA, UTA).
Ecco cosa è successo: le agenzie che rappresentano star come Matthew McConaughey, Michael B. Jordan e Ryan Reynolds hanno scoperto che OpenAI stava usando un meccanismo di “opt-out”: le celebrità dovevano notificare esplicitamente di NON voler apparire nei video AI. Al contrario di quanto OpenAI aveva inizialmente fatto credere.
“Immagina di chiamare un cliente per dirgli di registrarsi su Sora”, ha dichiarato un partner WME. “Quel cliente ti licenzierebbe sul posto. Nessuno di noi farebbe quella chiamata.”
Ma il vero colpo basso? Sora 2 generava video con proprietà intellettuali degli studios senza autorizzazione: personaggi di Bob’s Burgers, SpongeBob, Pokémon, Grand Theft Auto, Red Dead Redemption. Il 29 settembre, OpenAI ha fatto parziale marcia indietro sulle celebrità. Ma per i contenuti degli studios il meccanismo resta l’opt-out: devono segnalare uno per uno i contenuti da proteggere. Disney ha inviato una lettera durissima: “
Disney non è tenuta a fare opt-out per preservare i suoi diritti di copyright.”
E un executive di Hollywood ha sintetizzato il clima: “Come puoi venire nell’industria aspettandoti partnership? Avete letteralmente dato fuoco al ponte.” Ora sono in corso trattative legali. Il contenzioso è in preparazione.
I 3 grandi problemi legali di Sora 2
1. Copyright: chi possiede cosa?
Il dilemma del training
OpenAI si difende con il “fair use” americano: se l’AI trasforma i contenuti originali creando qualcosa di nuovo, l’uso è legittimo. Ma in Italia ed Europa il fair use non esiste. La Legge 633/1941 sul diritto d’autore è molto più restrittiva. Usare opere protette per addestrare un’AI è probabilmente una violazione, anche se l’output è “trasformativo”.
Il Regolamento AI Act europeo (2024) obbliga le aziende a dichiarare quali opere hanno usato per il training. Ma il nodo del consenso preventivo resta irrisolto.
Il paradosso della proprietà
Chi detiene il copyright di un video creato con Sora 2? Negli USA, l’U.S. Copyright Office ha stabilito che le opere generate da AI non sono proteggibili perché mancano di “creatività umana”. In Italia, stessa storia: serve un “autore persona fisica”. Un video AI potrebbe cadere nel pubblico dominio. Paradosso: investi migliaia di euro per creare contenuti con Sora, ma chiunque può copiarli liberamente.
2. Deepfake: la fine della verità
Con Sora 2, creare un deepfake realistico è banale. E questo apre 4 scenari inquietanti:
- Pubblicità false: un’azienda crea uno spot con una celebrità che non ha mai autorizzato nulla.
- Disinformazione politica: video falsi di politici possono manipolare elezioni e opinione pubblica.
- Pornografia non consensuale: Sora rende ancora più semplice creare video pornografici deepfake di celebrità (o di chiunque).
- Distruzione della reputazione: un video compromettente falso può diventare virale e rovinare una vita in poche ore.
Come ti difendi in Italia?
Le tutele ci sono:
- Art. 10 Codice Civile: richiedi rimozione immediata e risarcimento danni
- Legge sul diritto d’autore (art. 96-97): pubblicare il ritratto senza consenso è vietato
- GDPR: i dati biometrici (immagini facciali) sono dati sensibili che richiedono consenso esplicito
Puoi anche sporgere denuncia penale per diffamazione o violazione privacy. Ma c’è un problema: quando un tribunale emette un’ordinanza, il video è già virale da giorni. Il danno è irreversibile.
3. Privacy e GDPR: il grande scudo Europeo
Il GDPR è l’arma più potente contro Sora 2 in Europa. Quando Sora tratta video con persone riconoscibili, sta elaborando dati biometrici (volti, movimenti, caratteristiche fisiche). Secondo il GDPR art. 9, servono:
- Consenso esplicito
- Base giuridica specifica
- Misure di sicurezza rafforzate
Hai diritti forti:
- Sapere se i tuoi dati sono stati usati per il training
- Chiedere la cancellazione (diritto all’oblio, art. 17)
- Opporti al trattamento
Le sanzioni GDPR? Fino a 20 milioni di euro o 4% del fatturato globale (si applica l’importo maggiore). Per OpenAI, parliamo di potenziali multe miliardarie. Il Garante italiano ha già aperto istruttorie su sistemi di AI generativa nel 2024.
USA vs Italia: due mondi opposti
| Aspetto | Stati Uniti | Italia/Europa |
|---|---|---|
| Copyright training | Fair use (contenzioso aperto) | Probabile violazione |
| Diritto all’immagine | Debole, varia per stato | Fortissimo (Codice Civile + GDPR) |
| Privacy | Norme frammentarie | GDPR: sanzioni severe |
| Responsabilità piattaforme | Section 230: quasi immunità | DSA: obbligo di moderazione |
In sintesi: l’Europa ti protegge molto di più. Ma è anche meno flessibile per l’innovazione.
Ascesa e caduta dello strumento AI video più controverso del cinema
A dicembre 2024, OpenAI lanciava Sora: un generatore text-to-video capace di produrre clip fotorealistiche da un semplice prompt testuale. Scrivi “Tom Cruise che balla il tango sotto la pioggia” e in venti secondi ottieni una sequenza cinematografica. Tecnologia straordinaria. E, come avevamo sostenuto fin dall’inizio, un incubo legale in attesa di esplodere.
Il 24 marzo 2026, OpenAI ha annunciato la chiusura dell’app Sora. Il comunicato su X recitava: “We’re saying goodbye to Sora. What you made with Sora mattered, and we know this news is disappointing.” Nessuna data precisa ancora comunicata per lo shutdown definitivo.
Ma Sora è davvero morta? La distinzione che conta
Prima di procedere, una precisazione necessaria — soprattutto per chi lavora nel settore:
- Cosa chiude: l’app standalone Sora (quella social, con il feed verticale stile TikTok) e l’API pubblica.
- Cosa resta: il modello Sora 2 rimane accessibile agli abbonati ChatGPT Plus e Pro, almeno per ora. La generazione video non scompare da ChatGPT.
- Dove va la ricerca: OpenAI non abbandona la tecnologia. La reindirizza verso la robotica e la simulazione del mondo fisico, dove vede maggiore valore economico a lungo termine.
In sintesi: OpenAI esce dal mercato consumer del video generativo e chiude il prodotto pubblico — ma il modello sottostante sopravvive, integrato nell’ecosistema ChatGPT.
Cosa ha ucciso l’app Sora?
Tre fattori hanno convergito verso questa decisione.
- Costi insostenibili. OpenAI spendeva stimati 15 milioni di dollari al giorno solo per l’inferenza necessaria a generare i video — una cifra che lo stesso responsabile di Sora, Bill Peebles, aveva definito pubblicamente “completamente insostenibile.”
- Engagement in caduta libera. Gli utenti attivi mensili hanno raggiunto il picco a dicembre 2025, per poi crollare nel 2026. A febbraio, i download erano scesi a poco più di un milione.
- Pressione legale. Sora non era mai stato solo un costoso giocattolo creativo. Era una macchina per produrre video potenzialmente lesivi del copyright, sensibili sul piano del marchio e facilmente manipolatori, su scala industriale. Le grandi agenzie hollywoodiane lo avevano definito un “rischio significativo” per i diritti dei creativi. OpenAI era stata costretta a intervenire sulla generazione di video con le sembianze di Michael Jackson, Martin Luther King Jr. e Mister Rogers — ma solo dopo le proteste degli eredi e dei sindacati di categoria.
L’accordo Disney: un miliardo di dollari bruciato
A dicembre 2025, Disney aveva firmato un accordo triennale con OpenAI: licenza per oltre 200 personaggi tra Disney, Marvel, Pixar e Star Wars, più un investimento azionario da un miliardo di dollari. Il denaro non è mai cambiato di mano. L’accordo è ora definitivamente morto. Era la prima volta che Disney concedeva in licenza la propria proprietà intellettuale a una piattaforma AI. Durata: tre mesi.
Cosa cambia per il diritto d’autore e la proprietà intellettuale
La chiusura dell’app non risolve nessuna delle questioni legali aperte. Le cristallizza — e le trasferisce intatte al prossimo strumento di generazione video AI. Incluso il modello Sora 2, che resta disponibile dentro ChatGPT.
Training su opere protette. OpenAI si è difesa con il fair use americano. In Italia e in Europa questa difesa non esiste. Utilizzare opere protette per addestrare modelli AI senza consenso è con ogni probabilità una violazione della Legge 633/1941, e si scontra con gli obblighi di trasparenza imposti dall’AI Act europeo (2024).
Deepfake e diritto all’immagine. L’art. 10 del Codice Civile e il GDPR tutelano l’immagine delle persone in modo netto. I dati facciali sono dati biometrici — categorie particolari ai sensi dell’art. 9 GDPR, che richiedono consenso esplicito. Le sanzioni arrivano fino a 20 milioni di euro o al 4% del fatturato globale annuo.
Copyright sull’output generato dall’AI. Sia l’U.S. Copyright Office che la normativa italiana concordano: un contenuto generato dall’AI, in assenza di un apporto creativo umano significativo, non è proteggibile. Il rischio per chi investe in produzione video AI rimane reale — e non si esaurisce con la chiusura di un’app.
La lezione vera
Sora è stata una dimostrazione straordinaria di ciò che l’AI può fare con il video. Non è riuscita a trasformare quella capacità in un modello di business sostenibile — e l’esposizione legale che ha generato non è mai stata gestita in modo adeguato. La tecnologia ha corso più veloce della regolamentazione. La chiusura dell’app guadagna tempo — ma il modello resta, altri strumenti sono già sul mercato, e le domande legali rimangono senza risposta.
Hollywood contro Silicon Valley era solo il prologo. La partita si gioca adesso — nei tribunali, nelle sale di montaggio e negli studi legali.
FAQ Rapide
- Sora 2 è legale in Italia? Lo strumento sì, ma molti usi (training su opere protette, deepfake senza consenso) violano leggi italiane ed europee.
- Posso riconoscere un deepfake? È difficilissimo. Cerca anomalie nei movimenti, illuminazione strana, glitch nei riflessi. O usa tool di detection AI.
- Cosa faccio se trovo un mio deepfake? Richiedi rimozione immediata (art. 10 c.c.), chiedi risarcimento danni, sporgi denuncia penale.
- OpenAI può usare i miei video per il training? Se sono pubblici online, potrebbe averlo già fatto. In Europa puoi esercitare il diritto alla cancellazione GDPR (ma tecnicamente è complicato).
Lo Studio Legale Dandi fornisce assistenza legale in Diritto d'autore. Dai un'occhiata ai nostri servizi oppure contattaci!



