IVASS ha pubblicato l’intervento del proprio Segretario nazionale Ida Mercanti, del 24 aprile 2026, alla presentazione del rapporto OCSE volto a rafforzare il quadro normativo e di vigilanza e le prassi di mercato per l’utilizzo dell’intelligenza artificiale nei mercati finanziari italiani, tra cui quelli assicurativi.
L’intervento si concentra in particolare sul ruolo dell’intelligenza artificiale nei mercati finanziari e assicurativi, soffermandosi in particolare sulle condizioni regolamentari, organizzative e di governance necessarie per un’adozione sostenibile e affidabile delle tecnologie AI.
In primo luogo, viene evidenziata la centralità dei dati quale presupposto essenziale per lo sviluppo dell’AI: l’attenzione si concentra sui data-sharing frameworks, che devono essere sicuri, interoperabili e fondati su regole chiare di utilizzo e responsabilità.
Tali sistemi consentono:
- un miglioramento della qualità e dell’equità dei modelli AI, riducendo bias e discriminazioni
- una maggiore collaborazione tra operatori (banche, assicurazioni, fintech), favorendo l’innovazione cross-settoriale
- una riduzione delle barriere all’ingresso, con effetti positivi su concorrenza e inclusione finanziaria, anche in ambiti sottoassicurati (es. rischio climatico e sanitario).
Tuttavia, tali benefici sono subordinati alla preservazione della fiducia, elemento strutturale nei mercati assicurativi.
In questa prospettiva, vengono individuati alcuni rischi da governare:
- l’eccessiva personalizzazione, che può compromettere i principi di mutualità
- la possibile esclusione di categorie vulnerabili
- fenomeni di discriminazione algoritmica
- carenze di trasparenza, explainability e sicurezza dei dati.
Il quadro normativo europeo (in particolare GDPR, AI Act e DORA) viene interpretato non come limite all’innovazione, bensì come strumento per ancorarla a principi di fiducia e resilienza, riducendo l’incertezza per gli operatori e favorendo uno sviluppo sostenibile.
In tale contesto, IVASS si propone di agire attraverso:
- dialogo strutturato con il mercato (innovation hub, sandbox)
- definizione di aspettative su governance e trasparenza dei sistemi AI
- coordinamento europeo, anche tramite EIOPA.
Una seconda area di analisi riguarda il ruolo di competenze, organizzazione e cultura aziendale.
L’adozione dell’AI richiede infatti un’integrazione trasversale nei processi aziendali (pricing, underwriting, gestione sinistri), evitando la segregazione in unità tecniche isolate. Ne derivano esigenze di:
- team interdisciplinari
- chiara accountability umana
- programmi di formazione continua.
Analogamente, anche l’autorità di vigilanza intende rafforzare le proprie capacità analitiche per migliorare la supervisione: il principio guida è quello di proporzionalità, con attenzione all’impatto concreto dei sistemi AI su clienti e mercato, anche quando non classificati come “high-risk”.
Nel complesso, l’intervento sostiene che regolazione, supervisione e sviluppo delle competenze non costituiscono ostacoli, ma condizioni abilitanti per un’innovazione affidabile, inclusiva e orientata alla tutela del consumatore.

