Ormai è sotto gli occhi di tutti: l’Intelligenza Artificiale sta cambiando, nel bene e nel male, il modo in cui produciamo, cerchiamo e “consumiamo” informazioni.
Ma c’è una domanda che, sempre più spesso, inizia a farsi spazio: fino a che punto un modello di IA può spingersi prima di sconfinare nella violazione del diritto d’autore?
Una domanda che non è più “solamente” teorica, perché per la prima volta arriva davanti a un tribunale italiano. E il caso è di quelli destinati a far discutere.
RTI – Reti Televisive Italiane e Medusa Film, entrambe società del gruppo Mediaset, hanno avviato un’azione giudiziaria contro Perplexity AI dinanzi al Tribunale di Roma, contestando alla piattaforma la generazione e messa a disposizione di contenuti che riprodurrebbero parti sostanziali delle loro opere protette.
Secondo la ricostruzione delle attrici, i contenuti di RTI – Reti Televisive Italiane e Medusa Film sarebbero stati impiegati per l’addestramento del modello senza alcuna autorizzazione, per poi essere riproposti agli utenti attraverso risposte che ne richiamano struttura, linguaggio e informazioni essenziali. In alcuni casi, Perplexity AI avrebbe generato veri e propri riassunti dei servizi Mediaset, contenenti passaggi ritenuti sovrapponibili agli originali. Una condotta che, oltre alla presunta violazione dei diritti patrimoniali, sarebbe idonea a incidere sulla normale sfruttabilità economica delle opere, generando inoltre un potenziale vantaggio competitivo illecito.
RTI – Reti Televisive Italiane e Medusa Film hanno chiesto al Tribunale una pronuncia che accerti la violazione del diritto d’autore, ordini la rimozione immediata dei contenuti contestati e imponga il blocco di ogni ulteriore utilizzo delle loro opere per finalità di addestramento o generazione da parte della piattaforma. È stata inoltre avanzata richiesta di risarcimento dei danni, patrimoniali e non, commisurati all’utilizzo ritenuto illecito delle opere tutelate.
Perplexity AI, dal canto suo, non ha rilasciato alcun commento pubblico. Si può presumere, tuttavia, quale potrebbe essere la linea difensiva, ossia sostenere: che il modello non memorizza opere protette; che apprende semplicemente schemi linguistici generali; che le informazioni processate provengono da fonti accessibili online; e infine che gli output rappresentano elaborazioni autonome, non riconducibili a riproduzioni testuali delle opere delle attrici. La società potrebbe inoltre argomentare che eventuali somiglianze siano fisiologiche, in un processo statistico basato su ampi insiemi di dati.
La questione, però, è tutt’altro che semplice. Lo dimostra anche la recente evoluzione normativa in Italia, con la Legge 23 settembre 2025, n. 132 (in vigore dal 10 ottobre 2025), che rappresenta la prima disciplina organica nazionale in materia di intelligenza artificiale e si pone in coordinamento con il Regolamento (UE) 2024/1689. Il legislatore, inter alia, ha introdotto modifiche anche alla LDA (Legge sul Diritto d’autore), con riflessi diretti sul tema delle opere generate o influenzate da IA.
In particolare:
- L’art. 25 della Legge n. 132/2025 novella l’art. 1 della LDA, inserendo l’aggettivo “umano” dopo “opere dell’ingegno”, e stabilendo che, pur ammettendo come protette anche opere “create con l’ausilio di strumenti di intelligenza artificiale”, ciò è valido solo se il risultato rappresenta un’espressione del lavoro intellettuale dell’autore umano;
- Viene poi aggiunto il nuovo art. 70‑septies nella LDA, che disciplina l’estrazione e riproduzione di testi e dati da opere o materiali disponibili in rete o in banche dati, anche quando impiegata per l’addestramento di modelli IA, subordinandola al rispetto delle condizioni dettate dagli artt. 70‑ter e 70‑quater LDA (ossia: accesso legittimo e assenza di riserva da parte del titolare dei diritti);
- Inoltre (art. 26 della Legge n. 132/2025) si interviene sull’art. 171 LDA, al comma 1, aggiungendo la lettera a‑ter: è punibile la “riproduzione o estrazione di testo o dati da opere o altri materiali disponibili in rete o in banche di dati in violazione degli artt. 70‑ter e 70‑quater, anche attraverso sistemi di IA“.
Questa cornice normativa rende la causa promossa da RTI – Reti Televisive Italiane e Medusa Film non solo un caso pioniere sul piano fattuale, ma potenzialmente paradigmatico per l’applicazione concreta della nuova disciplina: il giudice dovrà valutare se la generazione di contenuti da parte di Perplexity AI costituisce una mera elaborazione autonoma oppure se sussiste un’estrazione/riproduzione di materiale protetto, e, in caso affermativo, se ciò si configura come violazione della LDA secondo la nuova lettera a‑ter dell’art. 171, anche considerando l’intervento dell’IA nella “catena produttiva” dei contenuti.
La decisione assumerà quindi una rilevanza ben oltre il caso specifico, e potrebbe segnare un precedente giurisprudenziale fondamentale su come interpretare la tutela del diritto d’autore in presenza di strumenti di intelligenza artificiale, definendo quando e quanto l’apporto umano sia necessario per riconoscere la validità di un’opera, oppure per sanzionare sfruttamenti non autorizzati di contenuti protetti tramite IA.
Il diritto d’autore, concepito in un’epoca in cui la riproduzione di un’opera avveniva attraverso atti concreti e facilmente individuabili, si confronta oggi con sistemi che generano testi attraverso processi probabilistici, spesso non del tutto intelligibili.
In questo contesto normativo appena riformato, la causa è solo all’inizio, ma il suo outcome avrà un peso che va ben oltre le parti coinvolte.
Sarà un passaggio cruciale per comprendere come il nostro ordinamento intenderà bilanciare tutela degli autori e innovazione tecnologica, fissando i primi paletti in una materia destinata a occupare un ruolo centrale nei contenziosi dei prossimi anni. Restaurare equilibrio in questo settore non sarà semplice, ma la direzione tracciata dal Tribunale di Roma, nella luce delle nuove norme, contribuirà senza dubbio a definire il perimetro entro il quale le piattaforme di IA e i titolari dei diritti dovranno muoversi.