Economia - 22 ottobre 2025, 07:00

Italia vara la Legge 132/2025 sull’AI: cosa cambia per contenuti generati, dataset e disclosure nei siti aziendali

Italia vara la Legge 132/2025 sull’AI: cosa cambia per contenuti generati, dataset e disclosure nei siti aziendali

Con la Legge n. 132 del 2025 l’Italia mette ordine nel rapporto tra intelligenza artificiale, diritto e responsabilità. È un testo che non aggiunge vincoli rispetto all’AI Act europeo, ma che traduce in ottica normativa nazionale una serie di regole pensate per chiarire chi deve vigilare, chi risponde dei danni e come si informa il cittadino quando un algoritmo entra nelle decisioni che lo riguardano.

È un punto d’incontro fra l’innovazione tecnologica e la cultura della legalità, due mondi che per anni hanno dialogato in modo frammentario. La legge è stata pubblicata in Gazzetta Ufficiale il 25 settembre ed è entrata in vigore il 10 ottobre 2025.

I principi: l’IA deve restare comprensibile all’uomo

La legge ruota attorno a sei concetti chiave: trasparenza, proporzionalità, sicurezza, protezione dei dati, non discriminazione e controllo umano. Tutto parte da un presupposto semplice, quasi elementare: la tecnologia può assistere, ma non sostituire la decisione umana.

Chi utilizza sistemi di IA, pubblici o privati, deve poter spiegare in modo chiaro come funziona e fino a che punto incide. Le decisioni algoritmiche, che spesso nascono da processi opachi, dovranno essere tracciabili e comprensibili, non solo per le autorità ma anche per l’utente.

Nei casi in cui la tecnologia interagisca con minori, la legge impone la presenza del consenso genitoriale sotto i quattordici anni, e un consenso informato e autonomo tra i quattordici e i diciassette, purché accompagnato da un linguaggio davvero accessibile.

C’è poi un profilo economico: nelle gare pubbliche, a parità di condizioni, potranno essere premiate le soluzioni che conservano o trattano i dati su server situati in Italia. Non un vincolo rigido, ma una spinta a valorizzare le infrastrutture nazionali e ridurre la dipendenza da centri di elaborazione esteri.

Le istituzioni competenti e il coordinamento

La governance dell’intelligenza artificiale è affidata a due soggetti principali: l’AgID, che cura la promozione e lo sviluppo delle tecnologie, e l’Agenzia per la Cybersicurezza Nazionale (ACN), che vigila, effettua ispezioni e applica sanzioni.

È previsto un Comitato di coordinamento presso la Presidenza del Consiglio, incaricato di mantenere il raccordo tra le due autorità e di assicurare che le politiche sull’IA restino coerenti con la strategia digitale del Paese.

Accanto a loro restano operativi gli altri garanti settoriali: il Garante per la privacy, l’AGCOM per le comunicazioni, la Banca d’Italia e la Consob per la parte economico-finanziaria, l’IVASS per l’assicurativo.

Sicurezza e cybersicurezza

Le attività di difesa e intelligence restano escluse dal campo di applicazione della legge, ma la cybersicurezza entra a pieno titolo nel nuovo quadro normativo. L’ACN viene incaricata di promuovere progetti di ricerca e sistemi basati su IA per il contrasto delle minacce informatiche e la protezione delle infrastrutture critiche. La sicurezza digitale, insomma, viene riconosciuta come componente strutturale della sicurezza nazionale.

Diritto d’autore e text & data mining

Sul piano culturale la legge ribadisce: la tutela del diritto d’autore è riconosciuta soltanto se l’opera contiene un contributo creativo umano. Le opere interamente generate da un software non possono essere considerate “creazioni intellettuali”, ma se l’uomo ne orienta il processo creativo la protezione resta intatta.

La novità più rilevante è l’introduzione di una disposizione dedicata al text and data mining, ossia alle attività di estrazione e analisi dei dati per l’addestramento dei modelli.

Sono lecite se finalizzate alla ricerca o all’innovazione, ma diventano illecite quando violano gli opt-out dei titolari o quando vengono effettuate su opere protette senza autorizzazione. Le sanzioni, in questi casi, sono particolarmente severe.

Reati, deepfake e manipolazioni digitali

Il legislatore ha introdotto due strumenti penali di rilievo. Il primo è una nuova aggravante per i reati commessi con l’ausilio dell’intelligenza artificiale: chi utilizza un sistema di IA per realizzare o agevolare un delitto potrà ricevere pene più alte.

Il secondo è un nuovo reato dedicato ai deepfake, che punisce la diffusione di immagini, voci o video manipolati per trarre in inganno o ledere la reputazione di una persona. Le pene vanno da uno a cinque anni, con aggravanti nei casi di particolare gravità o diffusione online.

Disclosure, dataset e traffico: la lente del marketing e della SEO

La nuova disciplina non parla soltanto ai giuristi, parla anche ai responsabili marketing e ai titolari di siti che pubblicano contenuti generati o arricchiti da IA, perché la trasparenza richiesta dalla legge diventa un elemento di fiducia percepita dagli utenti e una variabile che gli stessi motori possono valorizzare in termini di qualità, coerenza e affidabilità delle fonti.

Pagine che dichiarano con chiarezza se, dove e come sono stati impiegati strumenti generativi, che indicano i criteri di revisione umana e che tracciano la provenienza delle basi informative diventano un segnale competitivo di serietà editoriale e di cura del dato.

Questa legge costringe i brand a fare pulizia nei processi e a dire la verità su come producono i contenuti,” osserva Isan Hydi, CEO di Wolf Agency. “Chi integra l’IA con metodo, disclosure chiare e controllo umano credibile costruisce fiducia e guadagna spazio anche negli ambienti di ricerca alimentati dall’IA, dove la qualità delle fonti e la tracciabilità dei dataset contano più delle scorciatoie.

Si tratta di un equilibrio nuovo tra comunicazione, compliance e performance: non vince chi pubblica di più, ma chi dimostra come lavora e lo fa dando valore al contenuto.

Cosa significa “trasparenza nei contenuti”

In termini pratici, ogni azienda è tenuta a segnalare in modo chiaro e comprensibile quando un testo, un’immagine, un video o un contenuto interattivo è stato prodotto, anche solo in parte, mediante l’uso di strumenti di intelligenza artificiale generativa.

La finalità è da un lato tutelare l’utente, che deve sapere se sta interagendo con un contenuto umano o automatizzato; dall’altro, preservare l’affidabilità dell’informazione e la correttezza del mercato digitale.

Il principio discende direttamente dal valore della trasparenza algoritmica, già previsto dall’AI Act, ma la legge italiana lo estende anche alla comunicazione pubblica e commerciale.

Come deve essere resa l’informazione

La norma non prescrive un formato unico, ma impone che la comunicazione sia immediatamente percepibile.

Un’azienda può quindi adottare diverse modalità, purché trasparenti:

· un avviso in calce alla pagina (“Questo contenuto include parti generate con strumenti di intelligenza artificiale”);

· una nota esplicativa nei crediti dell’articolo o nella descrizione del video;

· un’icona o un tag riconoscibile accanto al titolo (es. “AI-generated”).

L’importante è che l’informazione non sia nascosta nei Termini di servizio o nelle informative privacy, ma visibile all’utente nel momento in cui fruisce del contenuto.

Perché è rilevante per i brand e SEO?

La trasparenza non è solo un adempimento formale, ma un fattore reputazionale. La fiducia del pubblico digitale si costruisce sulla chiarezza dell’origine e sul controllo umano delle informazioni.

Un brand che dichiara apertamente l’uso dell’intelligenza artificiale trasmette responsabilità e competenza, mentre chi tenta di dissimularla rischia di compromettere la propria credibilità, soprattutto in settori sensibili come finanza, salute o formazione.

Da un punto di vista strategico, questa novità impone un nuovo approccio alla content governance.
Le aziende dovranno mantenere una tracciabilità interna dei contenuti generati o modificati dall’IA, annotando quando e come è intervenuta la tecnologia, chi ne ha supervisionato l’uso e con quali criteri di revisione umana.

La trasparenza, inoltre, potrà influire indirettamente anche sul posizionamento SEO dato che Google e gli altri motori stanno introducendo segnali di qualità basati su affidabilità, originalità e responsabilità editoriale.


 




Informazioni fornite in modo indipendente da un nostro partner nell’ambito di un accordo commerciale tra le parti. Contenuti riservati a un pubblico maggiorenne.

TI RICORDI COSA È SUCCESSO L’ANNO SCORSO A FEBBRAIO?
Ascolta il podcast con le notizie da non dimenticare

Ascolta "Un anno di notizie da non dimenticare 2025" su Spreaker.
SU