WEBINAR / 22 Gennaio
Analisi degli scenari ambientali: nuove linee guida EBA

ZOOM MEETING
Offerte per iscrizioni entro il 22/12


WEBINAR / 22 Gennaio
Analisi degli scenari ambientali: nuove linee guida EBA
www.dirittobancario.it
Flash News

IA nei servizi finanziari: raccomandazioni del Parlamento UE per un uso responsabile

26 Novembre 2025
Di cosa si parla in questo articolo

Il Parlamento europeo, ha approvato il 25 novembre 2025 una risoluzione con raccomandazioni rivolte a Consiglio e Commissione UE per garantire un uso responsabile dell’IA nei servizi finanziari.

La risoluzione premette, dal punto di vista normativo, che l’AI Act ha introdotto il primo quadro normativo generale al mondo per l’intelligenza artificiale (IA), e che il punto 5, lett. b) e c), dell’Allegato III al regolamento definisce due casi d’uso ad alto rischio dell’IA per il settore dei servizi finanziari:

  • l’uso di sistemi di IA per il rating del credito al consumo e le valutazioni del merito creditizio
  • il loro utilizzo per la valutazione del rischio e la fissazione dei prezzi dell’assicurazione vita e sanitaria.

Passando poi in rassegna lo stato di adozione dell’IA nei servizi finanziari, il Parlamento osserva:

  • l’IA è già ampiamente integrata nei processi di back-office, con applicazioni spesso di “bassa soglia”, mentre cresce l’uso dell’IA ad alto rischio per valutazioni di merito creditizio
  • l’uso di LLM e GPAI è in aumento, ma nella maggior parte dei casi resta sperimentale, con rischi operativi e di conformità più elevati
  • la diffusione di sistemi completamente autonomi deve comunque prevedere la sorveglianza umana
  • l’IA può aumentare la competitività degli intermediari UE e migliorare servizi come:
    • prevenzione delle frodi, antiriciclaggio e controlli sanzionatori
    • consulenza finanziaria personalizzata
    • monitoraggio delle transazioni
    •  elaborazione di dati ESG
    • supporto alla conformità normativa e alla vigilanza del mercato
  • i benefici dovrebbero trasferirsi ai clienti, tramite minori costi, maggiore inclusione e qualità del servizio
  • l’IA può comportare rischi derivanti da dati di addestramento inadeguati (bias, discriminazioni, esclusione dei soggetti vulnerabili) e allucinazioni, opacità, scarsa spiegabilità
  • insorgono potenzialmente vulnerabilità gravi legate alla cibersicurezza e alla governance dei dati
  • le autorità di vigilanza hanno nuove sfide innanzi:
    • devono dotarsi di competenze e strumenti tecnologici adeguati
    • elevata dipendenza da pochi fornitori cloud/IA, con rischi sistemici e di concentrazione, anche se il regolamento DORA impone misure di mitigazione
  • deve essere garantita l’interoperabilità internazionale, riducendo la dipendenza da provider non UE e favorendo un’IA conforme ai valori europei.

Quanto alle interazioni tra il regolamento sull’intelligenza artificiale e la disciplina dell’acquis UE sui servizi finanziari, il Parlamento evidenzia sovrapposizioni, incertezze applicative e rischi di frammentazione del mercato unico.

  • interazione tra AI Act e normativa finanziaria: il regolamento sull’intelligenza artificiale considera l’acquis dei servizi finanziari, evitando duplicazioni nei requisiti su governance e qualità dei modelli, ma restano sovrapposizioni normative e scarsa chiarezza su come i due sistemi si combinino; ciò genera complessità, aumento dei costi di conformità e incertezza giuridica. Si richiede un rafforzamento del coordinamento tra autorità e un maggiore allineamento internazionale per prevenire la frammentazione regolatoria.
  • protezione dei dati e limiti all’adozione dell’IA: il GDPR limita l’uso dell’IA in ambito finanziario tramite requisiti rigorosi su minimizzazione, finalità, consenso e trattamento dei dati. Serve un equilibrio tra benefici dell’innovazione e tutela dei consumatori, evitando interpretazioni eccessivamente estensive dell’AI Act che rischiano di aggravare l’incertezza normativa. Divergenze interpretative tra autorità aumentano il rischio di un mercato unico frammentato
  • ruolo e coordinamento delle autorità di vigilanza: l’AI Act suggerisce di affidare alle autorità finanziarie la vigilanza sui sistemi ad alto rischio, mentre altri sistemi resterebbero sotto competenze diverse, creando possibili conflitti e applicazioni disomogenee; la pluralità di supervisori e le divergenze interpretative possono rendere onerosa la compliance.

Il Parlamento UE, pertanto, raccomanda a Consiglio e Commissione:

  • una strategia ambiziosa basata su un quadro tecnologicamente neutrale dell’IA: visto il forte ritardo negli investimenti in IA dell’UE rispetto agli USA, il settore finanziario può diventare un motore di attrazione di capitali privati
  • un monitoraggio continuo della normativa settoriale vigente, per individuare duplicazioni, evitare sovraregolamentazione e garantire un’applicazione chiara, soprattutto per l’IA adottata in modo transfrontaliero o tramite esternalizzazioni
  • un’applicazione coerente e proporzionata delle norme da parte delle autorità di vigilanza, concentrandosi sui rischi concreti (opacità, concentrazione, responsabilità) e sostenendo un’adozione responsabile che rafforzi la fiducia dei consumatori
  • la rimozione delle barriere all’ingresso per imprese innovative basate sull’IA, semplificando licenze e scale-up
  • lo sviluppo prioritario di competenze tecniche ed etiche nella formazione, il sostegno alla ricerca sull’impatto ambientale dell’IA e garanzie per un accesso equo agli strumenti digitali
  • la promozione dell’uso di sandbox regolamentari e strumenti SupTech per facilitare innovazione e vigilanza.
Di cosa si parla in questo articolo

WEBINAR / 22 Gennaio
Analisi degli scenari ambientali: nuove linee guida EBA

ZOOM MEETING
Offerte per iscrizioni entro il 22/12


WEBINAR / 15 Gennaio
Autovalutazione del rischio di riciclaggio: nuove raccomandazioni Banca d’Italia

ZOOM MEETING
Offerte per iscrizioni entro il 03/12

Iscriviti alla nostra Newsletter