[*] Il contributo affronta il tema dell’utilizzo dell’intelligenza artificiale nell’operatività bancaria, soffermandosi sugli impatti sul sistema dei controlli interni e sulla correlata responsabilità della banca.
1. La trasformazione della decisione nell’operatività bancaria
Per lungo tempo, nell’esperienza bancaria, gli algoritmi hanno rappresentato strumenti tecnici a supporto della decisione umana. I modelli di rating, le tecniche statistiche di scoring e le procedure automatizzate di controllo costituivano ausili operativi inseriti in un processo decisionale riconducibile, in ultima istanza, a un soggetto chiaramente identificabile. Il rischio nasceva da una decisione umana, mentre il modello costituiva esclusivamente la base tecnico-strumentale della scelta.
L’introduzione di sistemi di intelligenza artificiale – in particolare quelli fondati su tecniche di machine learning e, più recentemente, su architetture generative – altera profondamente tale schema. L’algoritmo non si limita a eseguire istruzioni predeterminate, ma apprende dai dati, evolve nel tempo e produce output che possono incidere in modo significativo sulla sfera giuridica dei clienti e sull’assetto prudenziale dell’intermediario. La decisione non è più semplicemente “assistita”, ma co-prodotta da un sistema adattivo, che interagisce dinamicamente con le scelte umane e con il contesto operativo.
La differenza non è semantica, ma istituzionale: quando un sistema di AI interviene nella valutazione del merito creditizio, nella segnalazione di operazioni sospette ai fini antiriciclaggio o nella determinazione di alert antifrode, esso entra nella catena di formazione della volontà dell’intermediario, generando effetti prudenziali, legali e reputazionali. In sostanza, l’algoritmo diventa un nuovo centro di produzione di decisioni rilevanti, con capacità di influenzare direttamente gli esiti aziendali e i diritti dei clienti.
Si comprende allora come l’AI non introduca semplicemente un rischio operativo aggiuntivo, ma si configuri come meta-rischio trasversale, capace di incidere contemporaneamente sul rischio di modello, sul rischio ICT, sul rischio legale e sul rischio reputazionale[1].
Il problema non è solo l’errore singolo, ma la deriva sistemica: model drift, data drift, emersione di bias latenti e progressivo disallineamento rispetto ai criteri di governance originari. In pratica, il sistema apprende continuamente, ma può allontanarsi dalle condizioni di validazione iniziali, modificando in modo impercettibile, ma cumulativo, gli esiti delle decisioni.
In questo scenario, la questione centrale diventa: chi governa un sistema che apprende autonomamente? La risposta non è solo tecnica: richiede l’istituzione di presidi organizzativi, ruoli chiari e controlli interni in grado di garantire che ogni decisione algoritmica sia tracciabile, motivata e imputabile a soggetti identificabili, come è doveroso in applicazione delle norme generali di cui all’art. 2086 c.c. sulla corretta gestione di impresa, obbligo che – nel contesto bancario – si salda con il paradigma della sana e prudente gestione.
2. Le tre fratture dell’AI e l’impatto sui controlli interni
L’esigenza di una governance dell’AI coerente e corrispondente alle innovazioni che incidono sul processo decisionale dell’intermediario può essere ascrivibile a tre fratture sistemiche che incidono sulla struttura giuridica e organizzativa dell’impresa.
a. Frattura tra decisione e comprensibilità.
L’impiego dell’AI nei processi decisionali bancari introduce un problema di natura propriamente epistemologica, connesso alla strutturale opacità – talvolta tecnica, talvolta funzionale – dei sistemi algoritmici. Anche quando producono effetti giuridici o comunque incidono in modo significativo sugli interessati, tali sistemi possono rendere difficilmente intelligibile il percorso logico che conduce alla decisione.
Proprio per fronteggiare questa asimmetria conoscitiva, il quadro normativo europeo – in particolare il Regolamento generale sulla protezione dei dati (GDPR) e l’AI Act – prevede obblighi di trasparenza, tracciabilità, accountability e supervisione umana effettiva. La regolazione non si limita a richiedere un’informazione ex post, ma dispone che la spiegabilità e la controllabilità del sistema siano incorporate già nella fase di progettazione (by design).
In questo quadro, la banca è chiamata a garantire che le decisioni algoritmiche siano non solo tecnicamente corrette, ma anche comprensibili, motivabili e sindacabili in ogni fase.
b. Frattura tra controllo ex ante ed evoluzione ex post.
I sistemi di machine learning non restano statici: i dati cambiano, il contesto economico evolve, le performance possono degradare. La governance tradizionale, basata sulla validazione iniziale e sul controllo ex post, non è più sufficiente: è necessario un monitoraggio continuo con presidi sul drift, la revisione periodica e l’aggiornamento delle metriche di controllo interno lungo l’intero ciclo di vita del sistema (approccio life-cycle based). Così facendo, il sistema di controlli interni diventa parte integrante della cosiddetta “linea algoritmica” di produzione della decisione.
c. Frattura tra responsabilità umana e automatizzazione.
La responsabilità della decisione non può essere trasferita interamente all’algoritmo: i capisaldi dell’iterazione uomo-macchina, ovverosia il cd. human-in-the-loop (= decisione finale umana), lo human-on-the-loop (= supervisione con potere di override) e lo human-in-command (= controllo strategico e responsabilità ultima)[2], delineano modalità concrete di imputazione della responsabilità. L’automation bias evidenzia che l’intervento umano deve essere sostanziale, documentato e idoneo a incidere sull’esito finale. In assenza di tali presidi, l’algoritmo rischia di diventare decisore de facto, senza reale responsabilità umana.
Da tempo la dottrina internazionale sull’algorithmic accountability muove in questa direzione[3]. evidenziano come i sistemi decisionali automatizzati richiedano strutture di governance robuste, capaci di garantire tracciabilità, trasparenza e responsabilità degli organi aziendali. In ambito bancario europeo, l’AI Act e i position papers EBA sottolineano che i sistemi “ad alto rischio” – tra cui quelli per la valutazione dell’affidabilità creditizia – debbano essere sottoposti a controlli organizzativi integrati e alla supervisione umana, quale avamposto della responsabilità ultima dell’istituto e dei suoi vertici[4].
In questa prospettiva, l’adozione dell’intelligenza artificiale non può essere ricondotta a una scelta tecnica, ma assume la natura di decisione organizzativa di vertice. Le norme civilistiche summenzionate e quelle settoriali (TUB e Circ. 285/2013 Bankitalia) in tema di adeguatezza organizzativa della banca determinano che la valutazione di tale presupposto negli enti che procedano all’integrazione dei sistemi algoritmici nei processi “core” non possa prescindere dall’accertamento circa la capacità di governare la dimensione algoritmica.
Ne discende che, per assicurare una supervisione effettiva di tale dimensione, debba farsi riferimento al sistema di controlli interni, articolato secondo il modello delle tre linee di difesa di cui alla disciplina bancaria.
In tale contesto, l’AI introduce una nuova linea di produzione della decisione – la suddetta “linea algoritmica” – che deve essere integrata e presidiata all’interno delle strutture esistenti. Se tale integrazione non avviene, si crea una zona grigia di responsabilità, nella quale la decisione è influenzata dall’algoritmo senza che vi sia un chiaro perimetro di imputazione e controllo.
Pertanto, la governance dell’AI deve nascere prima dell’algoritmo: la qualificazione degli use case, la valutazione del loro impatto sui diritti degli interessati e sui rischi prudenziali, la classificazione ai sensi dell’AI Act costituiscono passaggi preliminari indispensabili. L’adozione di un comitato interfunzionale – spesso denominato AI Steering Committee – risponde all’esigenza di assicurare un coordinamento tra business, IT e funzioni di controllo, sottraendo le scelte algoritmiche a una dimensione meramente tecnica. In altre parole, non si tratta di organizzare e sviluppare un progetto di sviluppo informatico, ma di architettare e gestire un nuovo centro decisionale, con tutti i benefici connessi ma anche i corrispondenti rischi e oneri.
E al fine di una gestione realmente consapevole e prudente di tali rischi, viste le suddette tre fratture dell’AI – opacità, evoluzione continua e responsabilità condivisa –, occorre ripensare la struttura dei controlli interni, ora chiamata a concorrere in maniera decisiva già nella fase genetica del framework tecnologico.
Strumenti di AI assurance, compliance by design, audit algoritmico, risk management e data protection fungono da pilastri della governance algoritmica, onde assicurare tracciabilità, accountability e mitigazione dei rischi. La gestione e il controllo dell’AI diventa così parte integrante dell’assetto organizzativo dell’intermediario lungo tutta la catena del valore, mirando a far sì che ogni decisione automatizzata sia presidiata e imputabile, e ciò a tutela della banca, dei clienti e in ossequio alle prescrizioni degli enti di regolazione[5].
Peraltro, l’emersione dei nuovi rischi enucleati in precedenza altera la morfologia stessa del sistema dei controlli interni in banca, i quali, storicamente, si caratterizzavano per un intervento prevalentemente ex post di verifica mentre, ora, sono chiamati sin nella fase di definizione dei requisiti regolatori del modello già nella fase di progettazione.
Si allude all’elaborazione dottrinale in tema di “regulation by design” e di integrazione preventiva delle regole[6]. In tale prospettiva, le funzioni di Risk management e Compliance si arricchiscono ulteriormente sul fronte dei presidi normativi nella fase ex ante.
Coerentemente, l’impianto delle più recenti normative in materia di dati e intelligenza artificiale, rientranti nello span of control del Data protection officer, prevede puntuali analisi preventive dei rischi — mediante DPIA, ai sensi del GDPR, e FRIA, secondo l’AI Act —, nonché assegna a tale figura di garanzia un ruolo nevralgico[7] nella supervisione dell’implementazione di tecnologie data-driven[8].
In ultima istanza, l’Internal audit, quale terza linea di difesa, è chiamato non solo a verificare l’esistenza di policy e procedure, ma anche a fornire un’adeguata assurance sull’effettività dei controlli relativi alla qualità dei dati, alla robustezza metodologica, alla tracciabilità delle decisioni, al monitoraggio del drift e alla sostanzialità dell’intervento umano[9].
Più in generale, le tre linee di controllo interno cambiano ruolo: non più controllori di regole statiche, ma supervisori di sistemi dinamici e auto-apprendenti[10], la cui evoluzione richiede un presidio continuo e sostanziale.
Ed è proprio a questo punto che si colloca una questione ulteriore, tanto suggestiva quanto problematica….
3. …. può l’AI controllare se stessa?
La suggestione di una funzione AI di controllo pone un interrogativo radicale: può l’AI controllare se stessa? È ipotizzabile, in una banca regolamentata, una funzione di controllo interno integralmente basata su sistemi di intelligenza artificiale, che sia incaricata di monitorare i progetti e i processi AI dell’intermediario?
Sul piano tecnico, l’ipotesi non appare irrealistica. Esistono già strumenti di machine learning impiegati per il monitoraggio continuo delle performance dei modelli, per la rilevazione automatica del model drift e del data drift, per il fairness testing, per l’analisi di explainability e per la detection di anomalie nei dataset. In letteratura si parla di “AI for AI governance”, ossia dell’impiego di sistemi algoritmici per sorvegliare altri sistemi algoritmici. Negli Stati Uniti, la riflessione sulla algorithmic accountability ha evidenziato come l’automazione dei processi decisionali richieda nuovi strumenti di audit e di supervisione, talora anch’essi automatizzati.
Analogamente, nel dibattito europeo sulla automated decision-making governance, si è sostenuto come la complessità tecnica dei modelli contemporanei renda inevitabile l’uso di strumenti computazionali per il loro monitoraggio. Tuttavia, la questione non può essere affrontata solo in termini di efficienza tecnica: in un intermediario vigilato, il controllo non è mera attività di verifica funzionale, ma – come visto – un presidio fondamentale di responsabilità organizzativa.
L’istituzione di una “AI-only control function”, a fronte di vantaggi intuibili (ad esempio, riduzione di comportamenti opportunistici, maggiore trasparenza, auditabilità, formalizzazione esplicita delle regole di controllo)[11] solleva almeno tre ordini di problemi.
In primo luogo, un problema di imputazione. Il sistema dei controlli interni, nel modello delle tre linee di difesa, presuppone responsabilità umane identificabili e, soprattutto, indipendenti. Se un sistema algoritmico di controllo omette di segnalare un’anomalia o genera una falsa rassicurazione, chi ne risponde? L’organo amministrativo, cui la normativa civilistica e di vigilanza attribuisce il dovere di predisporre assetti adeguati, non potrebbe certo invocare l’autonomia del sistema come causa di esonero di una responsabilità umana[12].
In secondo luogo, un problema di regressione. Se un sistema di AI controlla un altro sistema di AI, chi controlla il controllore? L’automazione del controllo rischia di generare una catena autoreferenziale che amplifica l’opacità complessiva. Come osservato da parte della dottrina anglosassone, il rischio della “meta-black box” è che il livello di supervisione diventi esso stesso opaco, generando una regressione potenzialmente infinita di sistemi algoritmici che si controllano reciprocamente senza un presidio umano ultimo.
In terzo luogo, un problema di legittimazione: il sistema dei controlli interni non è solo un processo tecnico, ma un presidio di garanzia nei confronti degli organi sociali, delle autorità di vigilanza e, in via principale, del mercato finanziario. La sua credibilità dipende non solo dalla competenza e dalla capacità di formulare giudizi motivati, ma anche dall’effettiva indipendenza e dall’osservanza di rigorosi standard deontologici.
Si potrebbe anche immaginare che un sistema di AI sia progettato per operare secondo un comportamento deontologico (rectius, deontico), ma è ineludibile la considerazione secondo la quale tale sistema sarebbe comunque, e inevitabilmente, sprovvisto di quella coscienza morale connaturata all’intelligenza umana e alla sua capacità di giudizio etico. Pertanto, si tratterebbe di una intelligenza artificiale (seppure) agentica ma non un agente morale né in senso giuridico né filosofico[13].
In altre parole, un sistema di AI deputato alla supervisione di altre AI potrebbe rispettare istruzioni circa regole “deontologiche”, ma questo rappresenterebbe un’implementazione normativa formale, non una moralità autentica. Per questo motivo, molti modelli contemporanei adottano soluzioni ibride: combinano logiche deontologiche e consequenzialiste[14], prevedono supervisione umana multilivello e ricorrono, in ogni caso, a un audit indipendente e umanocentrico[15].
Si può quindi concludere escludendo, da un lato, che all’AI debba essere preclusa l’operatività nel sistema dei controlli; al contrario, l’impiego di strumenti algoritmici per l’analisi di grandi moli di dati, per il monitoraggio continuo e per la rilevazione precoce di anomalie rappresenta una naturale evoluzione dell’AI assurance. Ma, dall’altro, ribadendo che tale impiego debba rimanere assistito e presidiato da responsabilità umane effettive, in modo da garantirne la genuina indipendenza e l’imputabilità delle scelte all’essere umano, tema peraltro ricorrente in tutto il discorso sull’AI.
4. Conclusioni: l’AI come moltiplicatore di responsabilità
In conclusione, si può affermare che l’intelligenza artificiale, nell’operatività bancaria, non è un acceleratore neutrale di efficienza; tale efficienza si riflette in una corrispondente moltiplicazione di responsabilità organizzativa.
A tal fine, l’integrazione e l’evoluzione del sistema dei controlli interni non rappresentano adempimenti burocratici e meramente tecnici, ma una condizione di legittimità dell’azione imprenditoriale, in special modo nei contesti altamente regolamentati[16]. Inoltre, si è visto che l’AI introduce una “linea algoritmica” di produzione della decisione che si deve inquadrare correttamente nella catena evolutiva dei presidi di sana e prudente gestione.
La vera sfida non è solo costruire modelli sempre più performanti, ma rendere governabile ciò che, per sua natura, tende ad auto-apprendere e a trasformarsi nella direzione di una singolarità tecnologica[17]. In questo scenario, l’intelligenza artificiale non sostituisce la responsabilità umana, la rende più esistenziale: governare correttamente l’AI significa preservare, anche nel contesto bancario, il primato dell’essere umano in un ambiente decisionale sempre più automatizzato.
[*] Si ringrazia Luca Servalli per la collaborazione.
[1] L’European Banking Authority (EBA) nelle linee guida su ICT e security risk e nei discussion paper su ML evidenzia la natura intersettoriale del rischio tecnologico (cfr. Guidelines on ICT and security risk management (EBA/GL/2019/04). Analogamente, la Banca Centrale Europea, nei lavori sul digital risk e nelle aspettative di vigilanza sui modelli interni, sottolinea che i sistemi avanzati possono incidere trasversalmente su governance, controlli interni e risk management (v. Guide to Internal Models, 19 febbraio 2024). Anche il Comitato di Basilea per la vigilanza bancaria parla di “model risk”, “operational risk” e “ICT risk” come categorie distinte, ma riconosce che le tecnologie avanzate ne amplificano le interconnessioni (in Revisions to the Principles for the Sound Management of Operational Risk, 2021).
[2] Per approfondimenti sui principi menzionati, v. High-Level Expert Group on Artificial Intelligence. “Ethics Guidelines for Trustworthy AI”. European Commission, 2019. Cfr. anche Anderson, & Fort, “Human Where? A New Scale Defining Human Involvement in Technology Communities from an Ethical Standpoint.” International Review of Information Ethics, 2022.
[3] Cfr., tra gli altri, Citron & Pasquale, “The Black Box Society”, 2014.
[4] In particolare, l’EBA osserva il fenomeno dell’accrescimento di utilizzo dell’AI in molteplici aree strategiche d’affari — dalla profilazione dei clienti e dell’attività transazionale, all’assistenza al cliente, fino al rilevamento di frodi e al supporto ai processi di antiriciclaggio — e i primi affacci alla sperimentazione di sistemi di General Purpose AI (GPAI). Tuttavia, osserva l’Autority, la complessità e i rischi associati, come la trasparenza limitata dei modelli, le sfide nella governance dei dati, i rischi ICT e la disponibilità di competenze specialistiche, richiedono approcci graduali e basati sulla gestione dei rischi, con presidî umani significativi e controlli adeguati per affrontare i potenziali impatti su consumatori, sicurezza, privacy e affidabilità dei sistemi. (EBA, Special Topic – Artificial Intelligence; EBA, AI Act: implications for the EU banking sector, 2025).
[5] Con riguardo al correlato tema dell’asserita ipertrofia normativa (norme esterne e procedure interne) che anima il dibattito internazionale in ambito di diritto digitale e dell’AI (si veda il programma UE di razionalizzazione “Digital Omnibus on AI Regulation”), ci si limita in questa sede, e con approccio sostanzialista, a richiamare le parole pronunciate al vertice globale sull’IA, tenutosi nel febbraio 2026 a Nuova Delhi, da Sam Altman, fondatore di OpenAI/ChatGPT, il quale ha dichiarato che il mondo ha urgente bisogno di regole per governare il rapido sviluppo dell’intelligenza artificiale. Senza giungere agli scenari foschi di “sopravvivenza della razza umana” evocati da taluni opinion leader, tali affermazioni si inquadrano comunque nella serie di dichiarazioni di preoccupazione provenienti dalla Silicon Valley, quali quelle di Demis Hassabis, CEO di Google DeepMind: «Man mano che i sistemi diventano più autonomi e indipendenti, saranno più utili, più simili ad agenti, ma avranno anche un maggiore potenziale di rischio e di azioni che forse non avevamo previsto quando li abbiamo progettati» (intervista a Bloomberg Television).
[6] Si veda, sul tema, la teoria generale del diritto e della regolazione tecnologica di cui al “Code and Other Laws of Cyberspace” di Lessig, 1999.
[7] La stretta correlazione ontologica tra l’intelligenza digitale e il trattamento dei dati era stata evidenziata già oltre un decennio fa. Si veda, ad esempio, Lawrence, “OpenAI won’t benefit humanity without data-sharing”, The Guardian, 2015, ove l’autore osservava che “Le decisioni non sono codificate direttamente dal programmatore, ma emergono dall’interazione tra un algoritmo e i dati sui quali esso viene addestrato”. Ne consegue che l’interdipendenza tra le discipline sull’intelligenza artificiale e quelle attinenti alla governance e protezione dei dati — così come le necessarie sinergie tra le corrispondenti figure organizzative, tanto tecniche quanto di garanzia — trovano il proprio fondamento proprio in tale assunto. Si osserva poi, in ambito nazionale, che recentemente il Ministero del Lavoro e delle Politiche Sociali, nelle “Linee guida per l’implementazione dell’Intelligenza Artificiale nel mondo del lavoro” (D.M. n. 180 del 17 dicembre 2025), ha delineato un ruolo evolutivo del DPO all’interno della governance dell’AI, arrivando a prevedere che, ove l’impresa lo ritenga opportuno, il ruolo di Chief AI Officer possa essere fatto coincidere con quello del DPO (con enfasi evidente del ruolo “etico” dell’incarico ma, si suppone, mantenendo ferme le garanzie e i contrappesi organizzativi al fine di preservarne l’indipendenza statuita dal GDPR).
[8] In argomento, e segnatamente sulla trattazione di rimedi quali l’uso di particolari dati sintetici a tutela dei diritti alla riservatezza dei dati personali— in superamento dei limiti dei metodi standard, in grado di esporre, anche involontariamente, dati reali a violazioni di vario genere —, si veda Shi, Wang, Tesei & Norgeot, “Generating high-fidelity privacy-conscious synthetic patient data for causal effect estimation with multiple treatments”, in Frontiers in Artificial Intelligence, 2022.
[9] La letteratura internazionale sull’“algorithmic auditing” ha delineato approcci metodologici con focus anche sul settore finanziario (v. Sandvig et al., “Auditing Algorithms: Research Methods for Detecting Discrimination on Internet Platforms”, 2014).
[10] L’European Data Protection Supervisory recentemente ha ribadito che l’integrazione di sistemi di intelligenza artificiale nelle istituzioni finanziarie europee richiede un approccio di governance strutturato e multidimensionale, che accompagni l’intero ciclo di vita dei sistemi, dalla definizione dei casi d’uso e dei dataset, fino al monitoraggio continuo e alla gestione dei rischi emergenti (v. EDPS “Orientations for ensuring data protection compliance when using Generative AI systems”, 2025). Analogamente, la Banca dei regolamenti internazionali raccomanda un approccio olistico che integri governance e gestione del rischio in tutte le fasi del ciclo di vita dei sistemi AI, con controlli preventivi, monitoraggio continuo, audit dei fornitori e supervisione umana effettiva, al fine di garantire trasparenza, responsabilità e resilienza dei processi decisionali. (Bank for International Settlements, Governance of AI adoption in central banks, 2025).
[11] Alcune banche hanno sperimentato sistemi di AI-only control function per il monitoraggio dei modelli di scoring del credito: l’AI rileva automaticamente drift dei dati, bias nascosti e deviazioni dai criteri, genera alert e report per il Risk management e conserva log tracciabili per audit indipendenti. Nonostante l’automazione, dunque, la supervisione umana rimane ultima garante, secondo i principi di human-in-the-loop e human-on-the-loop menzionati (v., tra le altre fonti, Banca d’Italia, Intelligenza artificiale nel credit scoring: analisi di alcune esperienze nel sistema finanziario italiano, 2022).
[12] Secondo una revisione scientifica della letteratura sull’etica dell’AI nei servizi finanziari, l’adozione di sistemi basati su machine learning nel settore bancario può determinare effetti discriminatori o trattamenti iniqui nei confronti di specifici gruppi di clienti qualora non sia accompagnata da adeguati presidi di governance. L’asimmetria informativa, la qualità dei dati storici e la possibile incorporazione di bias latenti nei dataset di addestramento possono infatti tradursi in decisioni algoritmiche che, pur formalmente neutrali, producono impatti differenziati e potenzialmente lesivi sul piano sostanziale. Ne deriva che una governance algoritmica effettiva non può limitarsi alla verifica della performance tecnica del modello, ma deve includere meccanismi strutturati di prevenzione, rilevazione e mitigazione dei bias, nonché strumenti di promozione della fairness e dell’inclusività nelle decisioni automatizzate. In tal senso, la letteratura evidenzia come la dimensione etica dell’AI bancaria debba essere integrata nei processi di progettazione, validazione e monitoraggio continuo dei modelli, quale componente essenziale dell’assetto organizzativo e del sistema dei controlli interni (così, Fundira, Mbohwa “AI ethics in banking services: a systematic and bibliometric review of regulatory and consumer perspectives, Discovery Artificial Intelligence”, 2025).
[13] Alcuni filosofi contemporanei dell’etica dell’informazione considerano i sistemi di AI come agenti morali in senso “debole” (Floridi, “Etica sull’intelligenza artificiale. Sviluppi, opportunità, sfide”, 2022; Floridi & Cowls, “A unified Framework of five principles of AI in Society”, Harvard Data Scientist Review, in MIT Press, 2019).
[14] Ovverosia, mirano a una combinazione efficiente tra il valore del “dovere” in senso assoluto (kantiano) e quello della valorizzazione degli “esiti” (centralità dei risultati, oltre le intenzioni e le regole assolute).
[15] La supervisione umana è centrale nella regolazione europea: in particolare, l’AI Act, introduce l’obbligo di human oversight quantomeno i per sistemi ad alto rischio, oltre che precisi requisiti di trasparenza, documentabilità tecnica tracciabilità.
[16] Si veda, in tema di framework di AI governance e integrazione dei controlli interni, i lavori dell’Organizzazione per la Cooperazione e lo Sviluppo Economico “Advancing accountability in AI: Governing and managing risks throughout the lifecycle for trustworthy AI”, 2023).
[17] Il concetto di singolarità tecnologica sottende la considerazione circa un’evoluzione dei sistemi di AI oltre la nostra capacità di previsione e controllo (Vinge, “The Coming Technological Singularity”, 1993; R. Kurzweil, “The Singularity Is Near”, 2005). Sul piano normativo e dei diritti fondamentali, tale evoluzione (per molti, come Elon Musk, inarrestabile) richiede attenzione e rigore nella tutela dei valori costituzionali, poiché gli algoritmi incideranno sui nostri capisaldi di civiltà, fianco di democrazia (cfr. Pollicino & Dunn, Intelligenza artificiale e democrazia. Opportunità e rischi di disinformazione e discriminazione, Bocconi University Press, 2024).


