|  | 

Mappatura strumenti AI in azienda: come farla davvero (e perché conviene iniziare subito)

Alt consigliato:

Illustrazione flat di una dashboard che mappa i tool di intelligenza artificiale usati in azienda, con monitor blu, icone AI e indicatori di rischio per la conformità all’AI Act
📢 Informativa: Questa pagina contiene link affiliati. Se acquisti tramite questi link potremmo ricevere una commissione, senza costi aggiuntivi per te. Raccomandiamo solo tool che riteniamo utili per PMI e freelance.

Se la tua azienda usa ChatGPT, strumenti di automazione o software con funzioni AI, ha senso partire subito da una mappatura interna dei sistemi Il GDPR Omnibus potrebbe alleggerire l’obbligo di registro per le PMI, ma una mappatura ben fatta resta utile anche senza vincolo formale. AI utilizzati. Il primo passo è capire quali dei tuoi software rientrano nella definizione di sistema AI secondo l’AI Act. Non perché l’AI Act imponga un adempimento autonomo chiamato formalmente “mappatura”, ma perché senza un inventario interno non puoi applicare in modo serio gli obblighi di governance, classificazione del rischio, trasparenza e formazione del personale. L’AI Act adotta infatti un approccio basato sul rischio, con obblighi che diventano rilevanti in base all’uso concreto del sistema AI. In Italia, inoltre, il quadro è affiancato dalla Legge 23 settembre 2025, n. 132, in vigore dal 10 ottobre 2025.

Molte PMI non sanno da dove iniziare. Questa guida spiega cosa censire, come farlo in modo semplice e quali errori evitare, così da costruire una base utile per la compliance senza trasformare tutto in burocrazia.

Dal 2 febbraio 2025 l’obbligo di AI literacy è già applicabile. La mappatura interna dei sistemi AI non è un obbligo formalmente nominato con questo nome nell’AI Act, ma è il prerequisito pratico per rispettare gli obblighi che già esistono e per prepararsi a quelli che si applicheranno dal 2 agosto 2026. Il Parlamento UE ha nel frattempo approvato il rinvio delle scadenze AI Act per i sistemi ad alto rischio al 2027-2028.

AI Act per PMI: obblighi e scadenze 2026

📌 Disclaimer informativo: Questa guida ha finalità informative e organizzative e non costituisce consulenza legale. Per casi specifici - soprattutto in ambito HR, credito, sanità, biometria o sistemi ad alto rischio — è opportuno verificare il singolo scenario con un professionista.

Perché conviene fare la mappatura degli strumenti AI

L’AI Act non riguarda solo chi sviluppa intelligenza artificiale. Riguarda anche provider, importatori, distributori e, in molti casi, chi utilizza sistemi AI nell’attività professionale. Per una PMI, il primo passo sensato è sapere quali strumenti esistono davvero in azienda, chi li usa, con quali finalità e con quali dati. Questo serve a distinguere gli usi più semplici da quelli che possono avere impatti su persone, clienti, candidati o dipendenti.

In pratica, se non sai quali sistemi AI sono già in uso, non puoi:

  • valutare il livello di rischio del caso d’uso;
  • verificare se ci sono obblighi di trasparenza;
  • capire se vengono trattati dati personali;
  • impostare formazione e controlli interni coerenti.

Per molte aziende il problema non è l’AI “ufficiale”, ma quella già presente in modo diffuso e non governato: chatbot attivati dal marketing, tool generativi usati con account personali, CRM con funzioni di scoring, software HR con automazioni poco trasparenti. Non tutto questo è automaticamente “alto rischio”, ma tutto questo andrebbe almeno censito.

Cosa devi mappare: la lista pratica

La mappatura dovrebbe coprire tutti i sistemi AI usati in azienda, compresi quelli incorporati in software di terzi. Non bisogna limitarsi ai tool più evidenti.

Strumenti di produttività e contenuto

ChatGPT, Copilot, Gemini e altri strumenti per generare testi, immagini, presentazioni, riassunti o automazioni.

Software gestionali con funzioni AI

CRM con scoring dei lead, ERP con previsioni, piattaforme contabili con rilevamento anomalie, sistemi di supporto decisionale.

Assistenza clienti

Chatbot sul sito, smistamento ticket, assistenti virtuali, sistemi di risposta automatica.

HR e recruiting

Screening CV, ranking candidati, matching automatico, strumenti di valutazione o supporto a decisioni su personale.

Analisi dati e BI

Dashboard predittive, suggerimenti automatici, forecasting, sistemi di analisi avanzata.

Produttività

ChatGPT / Copilot

Strumenti di produttività e contenuto (testi, codice, documenti) utilizzati in vari reparti aziendali.

Da valutare in base all’uso concreto
Assistenza

Chatbot clienti

Interazione automatizzata con utenti e clienti su sito, app o canali di supporto.

Possibili obblighi di trasparenza dal 2 agosto 2026
HR / Recruiting

Screening CV automatico

Strumenti per la valutazione automatizzata dei candidati e dei curriculum.

Potenziale alto rischio

Nota importante: non è corretto classificare un tool solo dal nome commerciale. Conta il caso d’uso concreto: lo stesso strumento può essere impiegato in un contesto a rischio basso oppure in un processo più sensibile.

Come fare la mappatura in pratica: 4 passi

Non serve un software costoso. Per iniziare bastano un foglio condiviso, un responsabile interno e un metodo chiaro.

Passo 1 – Censisci tutti gli strumenti

Chiedi a ogni reparto – marketing, amministrazione, HR, IT, customer care, direzione – di elencare i tool digitali con funzioni AI che usa realmente. Includi anche gli strumenti usati in modo informale o con account personali per attività aziendali.

Per ogni strumento, raccogli:

  • nome del tool e fornitore;
  • reparto e persone che lo usano;
  • finalità concreta d’uso;
  • dati trattati;
  • eventuale impatto su clienti, candidati, dipendenti o utenti.

Passo 2 – Valuta il caso d’uso e il livello di rischio

L’AI Act distingue tra pratiche vietate, sistemi ad alto rischio, obblighi di trasparenza e sistemi con rischio minimo o nullo. Per una PMI, la domanda giusta non è “questo software è AI?”, ma “questa funzione AI che cosa fa, su chi incide e in quale processo entra?”.

In modo semplificato:

  • Rischio minimo o nullo: supporto alla scrittura, sintesi interne, automazioni non incidenti su diritti o decisioni rilevanti.
  • Obblighi di trasparenza: sistemi che interagiscono direttamente con persone, come alcuni chatbot o sistemi che generano contenuti sintetici, con obblighi applicabili dal 2 agosto 2026.
  • Alto rischio: alcuni sistemi usati in ambiti come occupazione, gestione lavoratori, istruzione, accesso a servizi essenziali e altri casi previsti dall’AI Act.
  • Pratiche vietate: casi espressamente proibiti dal regolamento.

Passo 3 – Documenta finalità, dati e ruoli privacy

Se il sistema AI tratta dati personali, la mappatura va collegata anche alla governance privacy. In concreto, conviene documentare:

  • perché il tool viene usato;
  • quali categorie di dati tratta;
  • chi è il titolare;
  • se il fornitore agisce come responsabile del trattamento o in altro ruolo contrattuale;
  • dove vanno i dati e con quali garanzie.

Questo si collega al registro delle attività di trattamento previsto dal GDPR. Integrare il registro con un riferimento ai sistemi AI è una scelta organizzativa sensata, soprattutto per PMI che vogliono evitare doppioni.

Guida completa GDPR e AI per PMI

Se hai già un registro GDPR aggiornato, puoi partire da lì: aggiungi una colonna dedicata a “strumento AI / funzione AI”, finalità, dati trattati e fornitore.

Passo 4 – Individua un referente interno

Per gestire bene la mappatura conviene individuare un referente interno che coordini aggiornamenti, verifiche e formazione. Non è corretto presentarlo come obbligo generale espresso per tutte le imprese, ma è una best practice organizzativa molto forte, utile soprattutto nelle PMI dove gli strumenti vengono adottati rapidamente e in modo distribuito. La Legge 132/2025 rafforza il quadro nazionale sulla governance dell’intelligenza artificiale, ma parlare di “referente AI obbligatorio” in senso generalizzato sarebbe una semplificazione eccessiva.

Legge AI Italia 2025: guida pratica per PMI

3 scenari reali per PMI italiane

Scenario 1 – Studio di consulenza (5 dipendenti)

Uno studio usa ChatGPT per redigere bozze, un tool di note automatiche nelle riunioni e un CRM con suggerimenti commerciali. In questo caso la priorità non è “fare compliance complessa”, ma censire i tool, distinguere gli usi interni dagli usi che incidono su clienti o persone fisiche e verificare quali dati vengono inseriti nei sistemi.

ChatGPT in azienda e GDPR: cosa rischi davvero

Scenario 2 – E-commerce (15 dipendenti)

L’azienda usa un chatbot per il supporto clienti, un tool AI per generare descrizioni prodotto e una funzione predittiva per il magazzino. Qui la classificazione non dipende solo dalla presenza o meno di dati personali: conta anche l’effetto del sistema sulle persone. Se il chatbot interagisce con clienti, conviene già oggi impostare messaggi chiari, anche se gli obblighi di trasparenza dell’art. 50 diventano applicabili dal 2 agosto 2026.

Scenario 3 – Agenzia HR (8 dipendenti)

Un software filtra automaticamente i CV e ordina i candidati. Questo è il caso che richiede più attenzione: i sistemi AI usati in ambito occupazionale e recruiting rientrano tra i casi che l’AI Act considera alto rischio, con requisiti molto più severi applicabili dal 2 agosto 2026. In questo scenario non basta la sola mappatura: serve anche una verifica più approfondita del fornitore, della documentazione disponibile, del ruolo umano nel processo decisionale e delle informazioni date ai candidati.

Cosa rischi se non fai una mappatura interna

Il rischio principale non è solo la sanzione finale, ma il fatto di non accorgerti in tempo di usare sistemi AI in processi sensibili senza governance, senza formazione e senza controlli minimi.

Per una PMI, i problemi più concreti possono essere:

  • personale che usa AI senza istruzioni o limiti interni;
  • tool inseriti in processi HR o customer care senza valutazione preventiva;
  • contratti con fornitori AI non letti dal punto di vista privacy e compliance;
  • assenza di visibilità su dati caricati nei sistemi.

Le sanzioni previste dall’AI Act variano in base alla violazione. Per le violazioni più gravi, legate alle pratiche vietate, possono arrivare fino a 35 milioni di euro o al 7% del fatturato mondiale annuo totale, se superiore. Per altre violazioni rilevanti, il tetto può arrivare fino a 15 milioni di euro o al 3% del fatturato mondiale annuo totale, se superiore. Il regolamento richiede comunque che le misure nazionali tengano conto anche degli interessi delle PMI e delle startup.

L’AI literacy è già applicabile dal 2 febbraio 2025. Anche senza arrivare ai casi più gravi, una PMI che usa strumenti AI senza formazione minima e senza governance interna espone l’organizzazione a rischi concreti di conformità.

Conclusione: inizia dalla lista, non dalla complessità

La mappatura interna degli strumenti AI non è un adempimento formalmente nominato con questo nome nell’AI Act, ma resta il punto di partenza più pratico per una PMI. Bastano poche ore, un foglio condiviso e il coinvolgimento dei responsabili di reparto per capire:

  • quali sistemi AI sono davvero in uso;
  • dove vengono inseriti dati;
  • quali casi richiedono più attenzione;
  • quali team hanno bisogno di formazione.

Il metodo più realistico è questo: prima censisci, poi valuti, poi documenti. Solo dopo decidi se servono misure più avanzate o un supporto specialistico per i casi sensibili.

Hai già un registro GDPR o un inventario interno dei software? Parti da lì.

La soluzione più semplice, per molte PMI, è aggiungere una colonna dedicata alle funzioni AI e ai relativi processi aziendali.

In alternativa puoi usare strumenti dedicati di privacy/compliance oppure un semplice foglio condiviso ben strutturato.

FAQ – Domande frequenti sulla mappatura degli strumenti AI

Sì, se vengono usati in ambito professionale conviene censirli comunque. Il punto non è se il tool sia gratuito o a pagamento, ma come viene usato e con quali dati.

L’AI Act non si basa su una soglia semplice di dipendenti per questi aspetti iniziali. Le PMI possono beneficiare di un approccio proporzionato, ma non sono fuori dal perimetro del regolamento.

Non esiste una regola generale che imponga una specifica firma formale del documento di mappatura come tale. L’importante è che l’azienda abbia un inventario aggiornato, verificabile e utile alla governance interna.

Una revisione periodica è raccomandabile, ad esempio ogni sei mesi o quando cambia in modo significativo il set di strumenti usati. Questa è una buona prassi organizzativa, più che una scadenza uniforme fissata dal regolamento.

Sì. Il Registro GDPR riguarda i trattamenti di dati personali. La mappatura AI può includere anche strumenti che non trattano dati personali ma che vanno comunque governati dal punto di vista organizzativo e di rischio.

📌 Guide settoriali: AI Act per agenzie di marketing →  |  AI Act per e-commerce →

Fonti e riferimenti ufficiali

Le indicazioni contenute in questo articolo si basano esclusivamente su fonti normative e documenti ufficiali delle autorità europee e nazionali competenti.

Articoli simili