AI Act: la guida definitiva per non farsi trovare impreparati
Le nuove normative che regolano gli Agenti AI in Italia e in Europa, tra rischi legali e opportunità strategiche per le imprese
Secondo le rilevazioni fornite dall’ISTAT nel dicembre 2025, il numero di aziende italiane con almeno 10 dipendenti che utilizzano l’intelligenza artificiale ha raggiunto il 16,4%. Questo dato segna un incremento significativo rispetto all’8,2% registrato nel 2024 e al 5% del 2023, confermando una rapidissima evoluzione tecnologica che richiede una governance strutturata. Al centro di questo scenario si posizionano gli agenti AI, strumenti evoluti capaci di operare in autonomia per raggiungere obiettivi articolati, distinguendosi dai classici modelli generativi basati su singoli input. Questi sistemi trovano applicazione soprattutto nel settore commerciale e nel rapporto con gli utenti, attraverso avatar per l’e-commerce e assistenti virtuali in grado di gestire conversazioni tecniche o contatti proattivi per monitorare scadenze e processi d’acquisto. Tali interfacce influenzano direttamente la fidelizzazione e le conversioni, diventando componenti essenziali delle strategie di marketing e vendita.
La scalata degli agenti AI e l’impatto economico nelle aziende
I benefici di questa trasformazione sono confermati dalla Banca Centrale Europea, che ha segnalato per il 2025 una produttività del lavoro superiore alle stime nell’area euro. Allo stesso modo, le analisi di McKinsey indicano una crescita dei fatturati nelle aree strategiche e una riduzione dei costi operativi in settori quali l’ingegneria del software, l’informatica e il manifatturiero. Tuttavia, il successo non dipende solo dalla tecnologia, ma dalla capacità di gestirla correttamente all’interno del nuovo perimetro legale. Il Regolamento (UE) 2024/1689, meglio noto come AI Act, è diventato operativo il 1° agosto 2024, rappresentando la prima normativa globale uniforme sul tema. La struttura del regolamento si basa sulla classificazione dei sistemi in base al rischio, vietando pratiche contrarie ai principi democratici come la manipolazione subliminale o il social scoring. Per i sistemi considerati ad alto rischio, impiegati in ambiti come la giustizia, l’istruzione o le infrastrutture, sono previsti vincoli severi su trasparenza, qualità dei dati e supervisione umana.
Il quadro normativo europeo e la gestione dei rischi
Le imprese devono prestare particolare attenzione poiché molti strumenti di intelligenza artificiale usati per la gestione del personale o le decisioni operative rientrano nella categoria ad alto rischio. Il mancato rispetto delle norme può comportare sanzioni pecuniarie estremamente pesanti, che possono arrivare fino a 35 milioni di euro. Nonostante la severità, la normativa prevede agevolazioni per le PMI e le startup, includendo percorsi burocratici snelli, riduzioni sui costi di certificazione e l’accesso alle regulatory sandbox per testare le innovazioni in ambienti protetti. In questo contesto, l’Italia ha consolidato la propria posizione con la Legge 23 settembre 2025, n. 132, in vigore dal 10 ottobre 2025. Questo provvedimento nazionale integra il regolamento europeo affidando all’Agenzia per l’Italia Digitale la verifica della conformità e all’Agenzia per la Cybersicurezza Nazionale la vigilanza sul mercato. Altri organismi come Banca d’Italia, CONSOB e IVASS mantengono il controllo nei rispettivi settori di competenza.
L’ordinamento italiano e la tutela dei lavoratori
Per quanto riguarda il mondo del lavoro, l’Articolo 11 della legge nazionale introduce precisi doveri informativi per i datori di lavoro che adottano l’intelligenza artificiale. I dipendenti devono essere avvisati preventivamente secondo quanto stabilito dal D.Lgs. n. 152/1997. Inoltre, l’utilizzo di sistemi ad alto rischio per la selezione o la valutazione dei lavoratori richiede un’analisi dell’impatto sui diritti e la consultazione dei rappresentanti sindacali. La legislazione italiana affronta anche temi non coperti dall’AI Act, come la protezione del diritto d’autore per le opere create con il supporto dell’intelligenza artificiale, purché derivino da un’attività intellettuale. Viene inoltre introdotto nel Codice penale il reato legato alla diffusione di deepfake lesivi. Infine, la sicurezza informatica diventa un pilastro della governance aziendale, poiché la protezione dei dati e l’integrità dei processi sono requisiti fondamentali per garantire una compliance reale. Le aziende che sapranno integrare queste normative puntando sulla trasparenza e sulla cybersecurity otterranno un vantaggio competitivo basato sulla fiducia del mercato.
A cura della redazione
Leggi anche: Il commercialista risponde: serve la partita IVA per vendere su Vinted?
Seguici su Instagram!