Cosa succede se un contenuto viene generato da un algoritmo e non da una persona?
Fino a ieri, la risposta era incerta. Da oggi, con la Legge 132/2025, l’Italia introduce un principio chiaro: l’intelligenza artificiale non può sostituire l’ingegno umano. Può assisterlo, ampliarlo, ma non esserne l’autore.

La norma, entrata in vigore il 10 ottobre, è destinata a cambiare il modo in cui startup, studi creativi e professionisti del digitale concepiscono il rapporto tra uomo e tecnologia.
Non basta più dire “l’ha fatto l’IA”: bisogna dichiarare come, quando e in che misura è stata usata, e soprattutto chi si assume la responsabilità del risultato finale.
L’AI come strumento, non come autore
Il principio cardine è semplice: l’IA è un supporto, non un sostituto.
Un contenuto interamente generato da un modello non può essere coperto dal diritto d’autore, perché manca la creatività umana.
Ma se la persona utilizza l’IA come mezzo di lavoro – per ottenere idee, bozze o suggerimenti da rielaborare – allora l’opera può essere tutelata.
Per esempio, se un designer usa un modello generativo per creare una serie di loghi e poi seleziona, modifica e approva il risultato finale, la paternità rimane sua.
Diverso il caso di un output pubblicato “così com’è”: in quel caso la tutela legale è incerta, e l’opera potrebbe essere liberamente riutilizzabile da terzi.
Cosa significa per le startup: ogni volta che si integra l’IA in un flusso creativo o produttivo, va tracciato e documentato l’intervento umano. Una semplice nota di revisione o un log interno può fare la differenza in caso di contestazioni.
Un nuovo dovere verso utenti e clienti
La legge introduce un obbligo di trasparenza: chi utilizza sistemi di intelligenza artificiale deve informare in modo chiaro e preventivo il destinatario del servizio.
Non si tratta solo di un principio etico, ma di un vero e proprio dovere deontologico e contrattuale.
Un contenuto, una consulenza o un progetto che integra risultati generati da modelli di IA devono essere esplicitamente etichettati come tali.
L’obiettivo è proteggere il pubblico da usi ingannevoli e garantire la tracciabilità del processo creativo.
Per le aziende che lavorano nel digitale, questo si traduce in nuove pratiche operative:
– indicare nei contratti la presenza di moduli o algoritmi di IA;
– aggiornare informative privacy e condizioni d’uso;
– aggiungere nei documenti formule come “contenuto elaborato con supporto IA, supervisionato da un operatore umano”.
Creatività, responsabilità e nuove tutele
Il confine tra umano e artificiale si fa sottile proprio dove entra in gioco la creatività.
La Legge 132/2025 stabilisce che la tutela del copyright spetta solo se esiste un apporto creativo e decisionale umano.
In mancanza di questo elemento, l’opera è considerata frutto di un processo automatizzato e non può beneficiare della protezione tipica del diritto d’autore.
Per tutelarsi, le imprese possono:
– mantenere traccia dei prompt utilizzati e delle modifiche manuali;
– conservare versioni intermedie dei contenuti;
– adottare policy interne sull’uso dell’IA generativa.
Questi passaggi aiutano a dimostrare, in caso di contestazione, che l’autore umano ha effettivamente esercitato un controllo creativo sull’opera.
Deepfake e nuove responsabilità penali
La legge introduce inoltre il nuovo articolo 612-quater del Codice Penale, che punisce la diffusione di contenuti manipolati o falsificati con IA, soprattutto se lesivi della reputazione altrui.
Un segnale chiaro: l’uso illecito o ingannevole dell’intelligenza artificiale non è solo un problema etico, ma un reato.
Startup e IA
Pensiamo a una startup che offre servizi di content creation automatizzata.
Con la Legge 132/2025 dovrà informare i clienti dell’uso di sistemi di IA, prevedere un controllo umano sulle pubblicazioni e chiarire, nei contratti, la titolarità del copyright.
L’adeguamento può sembrare un vincolo, ma è anche un’opportunità: distinguersi sul mercato puntando su trasparenza, qualità e supervisione umana rafforza la fiducia dei clienti e riduce i rischi legali.
Innovare con consapevolezza
La Legge 132/2025 segna l’inizio di una nuova fase: quella in cui la tecnologia deve convivere con la responsabilità.
Per startup e PMI, l’obiettivo non è frenare l’uso dell’intelligenza artificiale, ma governarla.
Sapere quando dichiararla, come utilizzarla e come documentarla diventa la nuova frontiera della compliance.
Perché l’innovazione non è mai solo tecnica: è sempre, prima di tutto, umana.


