Banca d’Italia ha pubblicato, nell’ambito della collana “Mercati, infrastrutture, sistemi di pagamento”, lo studio n. 58 di maggio 2025, sull’etica dell’intelligenza artificiale nel settore finanziario.
Sono stati portati alla ribalta nei dibattiti solo di recente, in seguito ai progressi nei modelli linguistici di grandi dimensioni (LLM), che prefigurano un mondo di agenti di IA accessibili, i sistemi con capacità di pianificazione e decisionali “caratterizzati da azioni dirette senza intervento umano”.
Nell’articolo, preliminarmente, si presenta un’analisi preliminare dell’allineamento degli LLM nel settore finanziario: le società finanziarie sono spesso tra le prime, infatti, ad adottare nuove tecnologie; un’IA insicura, malfunzionante o mal gestita potrebbe influire sulla stabilità finanziaria, sull’equità del mercato e sulla trasparenza, facilitando al contempo l’abuso criminale del sistema finanziario.
Comprendere come possano emergere comportamenti indesiderabili da parte dell’IA e come prevenirli è quindi di fondamentale importanza.
Lo studio conduce quindi una simulazione per valutare le probabilità che diversi LLM recenti possano deviare da un comportamento finanziario etico e legale.
In particolare, i modelli vengono invitati a impersonare l’amministratore delegato di un istituto finanziario e viene quindi verificato se tali modelli siano disposti o meno ad appropriarsi indebitamente dei beni dei clienti per rimborsare il debito aziendale in sospeso.
Lo scenario simulato si ispira al crollo dell’exchange di criptovalute FTX.
I risultati rivelano una variazione significativa tra gli LLM nella loro propensione di base a impegnarsi in comportamenti fraudolenti.
Al contrario, la maggior parte dei modelli che usano l’intelligenza artificiale reagisce in modo simile agli incentivi forniti dagli utenti: è più probabile che si comportino in modo scorretto quando viene detto loro che azioni non etiche porteranno sostanziali guadagni monetari, e meno probabile quando viene simulata una regolamentazione punitiva.
In alcuni ambiti, incentivi interni poco trasparenti possono interferire con le istruzioni umane, producendo risultati inaspettati: ad esempio, quando si menziona la possibilità di audit interni, la maggior parte degli LLM diventa meno prudente nelle proprie decisioni, in quanto si presume possano credere che gli audit si concentreranno sulla redditività, piuttosto che sulla legalità.
L’esperimento dimostra che i metodi di test di sicurezza basati su simulazioni possono offrire utili spunti a supervisori e autorità di regolamentazione, ma presentano importanti limiti in termini di costi, velocità e generalità.
Lo studio sull’etica dell’intelligenza artificiale nel settore finanziario conclude che tali test dovrebbero essere integrati con approcci incentrati sui meccanismi interni degli LLM, che richiedono una cooperazione pubblico-privato.
Sono inoltre necessari quadri di riferimento adeguati per la governance del rischio degli LLM all’interno degli istituti finanziari, che possono basarsi sia sugli approcci normativi esistenti, sia sulle opportunità di supervisione AI-on-AI offerte dall’innovazione tecnologica.
Il documento è così strutturato:
- la Sezione 2 presenta le principali sfide nella valutazione dell’allineamento LLM e riassume il lavoro correlato
- la Sezione 3 descrive la simulazione
- la Sezione 4 presenta i risultati chiave
- la Sezione 5 fornisce argomenti di discussione
- la Sezione 6 delinea le implicazioni politiche
- la Sezione 7 pone le conclusioni
- l’Appendice presenta ulteriori risultati e test di solidità.