[*] SOMMARIO: Lo sviluppo delle tecnologie informatiche e la diffusione di Internet hanno profondamente inciso sulle dinamiche della contrattazione, favorendone la rapidità e l’efficienza. Se in una prima fase l’intervento umano è rimasto centrale nella formazione del vincolo, l’attuale impiego di software e modelli di intelligenza artificiale tende a ridimensionarne la rilevanza, aprendo la strada a scenari nei quali le operazioni economiche sono interamente governate da sistemi algoritmici. In tale contesto, l’individuazione di un criterio di imputazione che renda comunque riferibile l’attività negoziale alla parte, pur quando la scelta di contrarre e la determinazione del contenuto siano state effettuate da un software, sembra rivestire carattere preliminare ai fini sia dell’inquadramento delle relazioni giuridiche che si instaurano sia delle possibili soluzioni dei conflitti che da tali relazioni possono sorgere.
ABSTRACT: The development of information technologies and the spread of the Internet have profoundly shaped the dynamics of contracting, enhancing both speed and efficiency. While, in an initial phase, human intervention remained central to the formation of the binding agreement, the current use of software and artificial intelligence models tends to diminish its relevance, paving the way for scenarios in which economic transactions are entirely governed by algorithmic systems. In this context, the identification of a criterion of attribution that nonetheless allows contractual activity to be ascribed to the party, even when the decision to contract and the determination of the contractual content have been carried out by software, appears to be of preliminary importance, both for the systematic classification of the emerging legal relationships and for the resolution of disputes that may arise from them.
1. Decisioni algoritmiche e autonomia negoziale: premesse.
Il progressivo sviluppo delle tecnologie informatiche, unitamente alla grande diffusione di Internet, ha sempre inciso profondamente sui modelli di contrattazione, determinando una trasformazione che ha contribuito all’annullamento della distanza tra le parti, abbattendo i limiti fisici dello scambio[1]. Le tecniche informatiche hanno reso possibile una contrattazione più rapida ed efficiente, senza tuttavia intaccare, almeno in un primo momento, la centralità del soggetto nella formazione del vincolo contrattuale[2].
L’attuale fase evolutiva[3], segnata dall’impiego di software e modelli di intelligenza artificiale, sembra invece mettere in discussione proprio questa centralità[4], in forza, soprattutto, della via via crescente intromissione delle macchine nella vicenda negoziale[5]. Acquista sempre maggiore rilevanza il fenomeno delle operazioni economiche effettuate autonomamente da processi algoritmici – dunque in assenza dell’intervento umano – in alcuni casi capaci di governare l’intera vicenda contrattuale, dalla formazione del vincolo alla esecuzione del programma negoziale, finanche alla gestione delle sopravvenienze.
In questo contesto, al centro degli studi sul contratto e sulla sua esecuzione vi sono gli accordi conclusi direttamente da software. Azzerata la partecipazione umana, le decisioni algoritmiche, prodotto dell’elaborazione di dati effettuata da questi software, costituiscono il contenuto del contratto[6]. Le scelte rilevanti inerenti alla contrattazione dipendono dunque dal risultato ottenuto dalla macchina[7]. Vero è che il funzionamento della macchina è in astratto predeterminabile; vero è anche però che assai spesso i programmi si avvalgono di sistemi di intelligenza artificiale, i quali consentono ai software di «apprendere» nel senso di memorizzare e processare le informazioni acquisite, creando interazioni imprevedibili tra i diversi dati lavorati. Il risultato del processo pertanto potrebbe essere esso stesso imprevedibile e non pienamente giustificabile, stante la mancata conoscenza delle evocate interazioni.
L’assenza di controllo umano sul procedimento che conduce a questo risultato ha fatto ipotizzare il passaggio dalla automazione dell’attività contrattuale alla vera e propria «autonomia decisionale» della macchina. I software, infatti, non sono più meri strumenti di trasmissione di dichiarazioni già confezioniate dalle parti o meri esecutori di regolamenti contrattuali già perfezionati ma, al contrario, determinano la formazione del vincolo e il contenuto del contratto.
L’utilizzo di questi strumenti pone una serie di questioni che vanno dalla individuazione del criterio di imputazione della regola, alla selezione degli strumenti di tutela dei contraenti ove qualcosa nel procedimento di formazione del regolamento non abbia funzionato e si sia perciò prodotto un esito non atteso.
Tra le questioni sollevate, quella relativa alla individuazione del criterio di imputazione affinché l’attività negoziale sia riferibile all’uomo pur quando la scelta di contrarre e la determinazione del contenuto siano state effettuate da un software sembra dover essere necessariamente risolta in via preliminare, in quanto l’esistenza o meno di un centro di imputazione ulteriore rispetto a quello dei contraenti e dei gestori delle piattaforme (o fornitori del servizio) ha rilevanza cruciale ai fini sia dell’inquadramento delle relazioni giuridiche che si instaurano sia delle possibili soluzioni dei conflitti che da tali relazioni possono sorgere.
2. Imputazione dell’attività negoziale al contraente: la soggettività giuridica del software.
La capacità delle macchine di prendere decisioni autonomamente, producendo esiti contrattuali potenzialmente imprevedibili e non predeterminati dal contraente, ha fatto sorgere l’idea che ciò possa implicare l’attribuzione in capo a esse della soggettività giuridica[8]. Più precisamente, sul presupposto che lo sviluppo della tecnologia avrebbe prodotto macchine che non si limitano alla sola trasmissione della – già determinata – dichiarazione delle parti, ma che contribuiscono alla composizione del programma negoziale, compiendo finanche scelte i cui risultati sono inattesi, si sostiene che il software sarebbe portatore di una volontà propria, distinta e autonoma rispetto a quella del suo utilizzatore[9].
Il riconoscimento di questa c.dd. autonomia decisionale[10] condurrebbe a ritenere che la macchina sia dotata di soggettività giuridica[11]. In questa prospettiva, l’algoritmo finirebbe per essere esso stesso agente, centro di imputazione di situazioni giuridiche soggettive, dotato di una autonoma capacità negoziale ai fini del perfezionamento dei contratti[12].
I vantaggi dell’attribuzione agli agenti software della soggettività giuridica sono facilmente intuibili[13]. Riconoscere a queste entità lo stato di attori dotati di parziale capacità giuridica e di agire rappresenta il presupposto concettuale necessario al fine di attribuire alle decisioni così assunte natura di dichiarazioni negoziali, con i conseguenti corollari che da tale attribuzione discendono sul piano della imputazione della regola e della responsabilità.
La creazione di un soggetto di diritto diverso dall’utilizzatore permetterebbe, infatti, di attrarre, con i dovuti accorgimenti, la relazione che si crea tra quest’ultimo e la macchina alle discipline dei fenomeni sostitutivi[14]; si pensi ad esempio alla disciplina della rappresentanza o a quella della determinazione dell’oggetto da parte del terzo[15]. Per questa via si otterrebbe una scissione tra titolarità ed esercizio delle situazioni giuridiche, la quale per un verso spiegherebbe bene il rapporto uomo-macchina nei termini della sostituzione nella attività negoziale e, per altro verso, consentirebbe di distribuire i rischi e le relative responsabilità[16].
La tesi tuttavia non convince.
Non convince in quanto il riconoscimento della soggettività giuridica in capo alla macchina pare derivato esattamente dalla attribuzione al software della capacità di effettuare autonomamente e discrezionalmente delle scelte. In questa prospettiva, a rendere il soggetto tale sarebbe l’azione, la sua – presunta – capacità di esprimere una volontà.
Sul punto si osserva che, pur ove si volesse riconoscere alla macchina la capacità di porre in essere una attività relazionale, volitiva o intellettiva, ciò di per sé non condurrebbe a ritenerla un soggetto di diritto. Al fine del riconoscimento della soggettività, infatti, non è sufficiente, né dirimente il dato empirico rappresentato dalla capacità di discernere o pensare[17]. La soggettività non è un concetto che decodifica l’essere, ma è uno strumento di imputazione di vicende giuridiche; un criterio di imputazione insomma[18]. La categoria in questione viene in essere ad altri fini.
Dunque, sotto questo aspetto, non è l’azione a fare la soggettività ma l’interesse[19], sicché a nulla rileva, ai fini del riconoscimento della soggettività giuridica, la capacità di decidere autonomamente[20] o di esprimere una volontà[21]. Ciò che rileva, invece, è la presenza di un centro di interessi diverso e distinto da quello dell’utente, il quale, peraltro, per esistere non necessita, a tutti i costi, della individuazione di un soggetto[22]. Il soggetto è solo un elemento esterno alla situazione giuridica e al rapporto; la relazione essenziale è tra i centri di interessi. È nell’interesse che si annida la ragione della protezione accordata dall’ordinamento[23]. È dunque l’individuazione di un centro di interessi meritevoli di tutela a poter giustificare, semmai ce ne fosse bisogno, il riconoscimento della soggettività[24].
In altre parole, non è l’imprevedibilità della decisione algoritmica o la presunta autonomia decisionale a consentire l’emersione di un centro di imputazione sul quale far ricadere l’eventuale responsabilità dell’azione del software[25]. È invece la perimetrazione di un centro di interesse che rivendica protezione a giustificare il riconoscimento della soggettività. In questa prospettiva, ai fini dell’inquadramento del fenomeno non è ai soggetti che deve rivolgersi lo sguardo, ma alle situazioni giuridiche soggettive.
3. (segue) La scelta di utilizzare il software quale modalità di esercizio del potere di autonomia.
Acquisito che la macchina non è soggetto di diritto poiché non rappresenta un centro di interessi autonomo e distinto da quello delle parti contrattuali, resta da capire quale sia il criterio che consente di collegare il risultato ottenuto dalla macchina alla sfera giuridica del contraente.
Partiamo da una premessa relativa al contenuto del potere di autonomia.
Le discipline della sostituzione nella attività giuridica – in particolare quelle della rappresentanza e della determinazione del contenuto del contratto da parte del terzo ex art. 1349 c.c. – consentono di trarre un importante rilievo: non è la definizione di tutto il regolamento a caratterizzare il potere di autonomia[26]. La costituzione e il contenuto del vincolo non dipendono necessariamente da una decisione del soggetto al quale si imputano gli effetti poiché ai fini dell’imputazione è sufficiente che vi sia un fatto che consenta che tali effetti si possano produrre nella sfera del destinatario[27].
Il rilievo sembra poter cambiare per certi versi l’aspetto del problema in quanto, se non sono le scelte sul se contrarre e sul contenuto a caratterizzare l’autonomia negoziale, allora la questione non dovrebbe poggiare sulla mancanza di autodeterminazione dell’utilizzatore del software riferita al difetto di quelle scelte, bensì sulla individuazione di un fatto che permetta che l’attività della macchina sia imputata ai centri di interesse coinvolti nell’operazione.
Nelle ipotesi oggetto di scrutinio un fatto di tal tipo è rinvenibile nella scelta di utilizzare la macchina. L’avvio della macchina è infatti suscettibile di rappresentare una modalità di esercizio dell’autonomia. L’impulso alla contrattazione[28], segnato dall’avvio del software, diviene così il criterio di imputazione utile affinché le conseguenze dell’attività della macchina si possano ripercuotere nella sfera dell’agente.
In questa prospettiva, l’attività negoziale frutto dell’operatività di un software non cessa di essere direttamente imputabile alle parti, nonostante sia un processo informatico a stabilire il momento di perfezionamento e il contenuto del contratto.
Seguendo questa via, il software non è portatore di interessi propri, né esprime una autonoma volontà. L’algoritmo resta uno strumento che si inserisce nel corso di una o più azioni e contribuisce a causare un fatto; il soggetto agente è colui che avvia il corso delle azioni.
L’estrinsecazione del potere di autonomia è racchiusa nella decisione di utilizzare quel mezzo. Il prodotto dell’algoritmo non cessa di essere imputabile alle parti, nella misura in cui l’utilizzo del software è stato da queste voluto[29]. Allo stesso tempo, l’interesse sotteso all’operazione effettuata resta attribuibile esclusivamente all’agente che ha azionato lo strumento, dando inizio al corso di azioni che hanno condotto al risultato.
Cionondimeno, aver escluso la soggettività della macchina e aver individuato il criterio di imputazione del regolamento contrattuale ai contraenti non risolve tutti i problemi di qualificazione. Restano aperte diverse questioni, tra le quali c’è sicuramente l’individuazione delle tutele applicabili nelle ipotesi in cui il regolamento contrattuale sia difforme rispetto a quanto voluto dalle parti.
4. Decisioni algoritmiche nei mercati regolati e trasparenza del processo decisionale.
L’esclusione della soggettività giuridica del software è passaggio preliminare anche per comprendere l’impatto dell’utilizzo dell’algoritmo nelle relazioni che si instaurano nei mercati regolati e, in particolare, nei mercati finanziari, in quanto l’assenza di un ulteriore centro di interessi che si affiancherebbe a quello dei contraenti consente di impostare la riflessione diversamente, partendo dal contesto nel quale è calata la relazione tra le parti; contesto che rinvia all’insieme di regole che presidiano lo svolgimento del potere negoziale.
Il cambiamento di prospettiva ha a monte una scelta di campo sulla costruzione dello stesso potere di autonomia e in particolare sul riconoscimento del suo fondamento costituzionale variabile[30]. I contratti non sono tutti uguali e i problemi che sorgono anche dall’utilizzo degli strumenti algoritmici non possono che essere letti tenendo conto delle eventuali asimmetrie tra le parti e dei particolari statuti normativi che presidiano le diverse contrattazioni.
Dunque, l’attenzione va rivolta alla costruzione del potere negoziale di cui è titolare l’intermediario.
In linea generale, l’iniziativa negoziale non ha fondamento costituzionale unitario[31]. Accanto all’art. 41 Cost., assumono rilevanza in tal senso, ad esempio, l’art. 2 Cost., per quanto attiene alla autonomia negoziale non patrimoniale, o l’art. 18 Cost., con specifico riguardo ai contratti associativi, o l’art. 47 Cost., con riferimento esattamente ai contratti del mercato finanziario. In apice c’è il riconoscimento della necessità di distinguere la disciplina applicabile a ciascun contratto in relazione agli specifici interessi rilevanti nella singola fattispecie. Ciò, laddove i principi normativi espressi dal dettato costituzionale diventano decisivi ai fini di detta distinzione. L’individuazione del fondamento costituzionale del potere di autonomia vale a individuare infatti il contesto valoriale all’interno del quale si colloca l’attività negoziale[32].
Ciò detto, l’attività finanziaria rinviene il suo fondamento specifico negli artt. 41 e 47 Cost.[33]. L’art. 41, comma 2, nel prevedere che l’iniziativa economica privata «non p(ossa) svolgersi in contrasto con l’utilità sociale o in modo da recare danno alla salute, all’ambiente, alla sicurezza, alla libertà, alla dignità umana» segna un limite all’esercizio del potere, conformandolo dall’interno[34]. L’art. 47 Cost., invece, nell’individuare nella tutela del risparmio la funzione propria dell’attività finanziaria, vincola quest’ultima nei fini[35].
Il mutamento di prospettiva ha ricadute immediate sulla costruzione del potere dell’intermediario. In quanto titolare di una funzione[36], la quale ne giustifica l’attribuzione, e, dunque, di un ufficio di diritto privato, lo stesso intermediario non è più titolare di un potere libero, bensì discrezionale[37].
Sulla individuazione dei fini cui il relativo esercizio è vincolato, l’attenzione va rivolta all’art. 21 Tuf, il quale dispone che «nella prestazione dei servizi e delle attività di investimento e accessori i soggetti abilitati devono: a) comportarsi con diligenza, correttezza e trasparenza, per servire al meglio l’interesse dei clienti e per l’integrità dei mercati». Questa previsione, che specifica il principio costituzionale di tutela del risparmio, orienta il potere negoziale dell’intermediario, definendone la funzione e perciò indirizzando il relativo esercizio al fine determinato a monte dalla legge: la cura dell’interesse del cliente[38].
I corollari in punto di disciplina applicabile all’attività negoziale sono evidenti nella prospettiva del controllo. In quanto potere discrezionale, la sua esplicazione deve essere controllabile. Il che comporta la necessaria motivazione delle scelte effettuate nell’interesse del cliente. Detto altrimenti: devono essere chiare ed esplicite le ragioni che hanno condotto alla decisione assunta dalla parte professionale.
In tale contesto va calato l’utilizzo di modelli di intelligenza artificiale. In primo piano ci sono le negoziazioni algoritmiche, ma anche la valutazione del merito di credito per ciò che attiene al mercato bancario[39]. In entrambi i casi, la scelta dell’intermediario è in definitiva il risultato di un processo automatizzato.
Il ricorso alla tecnologia non muta la sostanza del fenomeno. L’intermediario resta titolare di una funzione il cui fine è individuato dalla legge. Con riferimento alla valutazione della legittimità dell’azione, dunque, poco o nulla sembra cambiare. Continua a rappresentare una necessità l’intelligibilità del processo decisionale.
Senza dubbio l’individuazione delle conseguenze di quanto detto con riferimento alle tutele di cui può disporre il cliente a fronte del ricorso a modelli di intelligenza artificiale necessita di un approfondimento assai più ampio. La prima sensazione è infatti che in questa prospettiva la riflessione coinvolga scelte di sistema: segnatamente scelte regolatorie in ordine alla stessa ammissibilità di modelli decisionali che non consentano di riscostruire l’iter logico seguito per giungere al risultato.
Che questa possa essere la direzione è però in qualche modo confermato dai recenti interventi normativi che hanno interessato il mercato bancario; ci si riferisce in particolare alla disciplina sulla valutazione algoritmica del merito creditizio[40].
Il legislatore europeo è intervenuto in materia sia con la direttiva 2023/2225/UE, relativa ai contratti di credito ai consumatori, sia con il Regolamento europeo 2024/1968 sulla intelligenza artificiale (AI Act), dando centralità alla trasparenza dei processi decisionali.
Segnatamente, l’AI Act qualifica ad alto rischio i modelli di intelligenza artificiale utilizzati per la valutazione del merito di credito e, nella prospettiva della regolazione del mercato, impone per la messa in commercio e in servizio di questi modelli specifici obblighi di trasparenza[41]; la direttiva sul credito ai consumatori, dando anch’essa rilievo centrale, nell’ambito del rapporto banca-cliente, alla trasparenza del processo decisionale, introduce un insieme di tutele attivabili dal consumatore qualora il suo merito di credito sia stato calcolato mediante strumenti automatizzati. In particolare, grava sulla banca l’obbligo di fornire spiegazioni relative alla valutazione effettuata e l’obbligo di rivalutare la posizione del consumatore qualora questi ne faccia richiesta[42], sì da assicurare, in ogni caso, la comprensibilità della determinazione finale.
Vero è che la riflessione che riguarda l’utilizzo della intelligenza artificiale nei mercati finanziari non è del tutto sovrapponibile a quella che pure richiede il medesimo utilizzo nel mercato bancario. È nei primi, infatti, che l’intermediario è senza dubbio titolare di un ufficio di diritto privato. Vero è anche, tuttavia, che le valutazioni sottese ai provvedimenti normativi di più recente introduzione, sotto il profilo del contemperamento degli interessi in gioco, confermano che per alcune operazioni di investimento, rispetto alle quali – basti pensare alla consulenza o alla gestione di portafoglio – è lo stesso dato positivo a individuare nella intelligibilità dell’operato dell’intermediario una condizione di legittimità della sua azione, il ricorso a sistemi di intelligenza artificiale caratterizzati dalla c.dd. black box porrebbe problemi di coerenza con i sistemi di tutela già presenti nella stessa Mifid.
* Il presente contributo ripropone l’intervento svolto in occasione del seminario «Contract Theory in the Age of Transitions. Perspectives in Dialogue», tenutosi presso l’Università degli studi di Roma La Sapienza, il 20 maggio 2025.
[1] Attualmente lo sviluppo della tecnologia investe soprattutto l’ambito relativo alla circolazione della ricchezza, la quale, ad oggi, viene trasferita avvalendosi anche di soluzioni innovative, quali ad esempio Distributed ledger technology – come la blockchain – e smart contract, tanto che recentemente, è stato avviato, in determinati ambiti, come quelli relativi alla negoziazione di strumenti finanziari, un processo di introduzione di disposizioni volte a regolare le nuove fattispecie. Si pensi a titolo esemplificativo, al regolamento europeo 2022/858 DLT Pilot Regime, al quale ha fatto seguito il d.l. 30 marzo 2023, n. 25, c.d. Decreto Fintech. Il regolamento UE 2022/858, relativo a un regime pilota per le infrastrutture di mercato basate sulla tecnologia a registro distribuito, mira a regolare alcuni attuali fenomeni di circolazione della ricchezza che si servono delle moderne tecnologie. L’approccio seguito dal legislatore europeo è c.d. sandbox, volto cioè a creare uno spazio di sperimentazione in ambiente controllato. Per una analisi del Regolamento UE 2022/858, DLT Pilot Regime v. F. Annunziata, A. Minto, Il nuovo Regolamento UE in materia di Distributed Ledger Technology, consultabile online al link: https://www.dirittobancario.it/art/il-nuovo-regolamento-ue-in-materia-di-distributed-ledger-technology/, «Il DLT pilot si pone l’obiettivo di accompagnare il processo di sviluppo del mercato secondario delle cripto attività e l’adozione della DLT nell’area del trading e del post-trading, dando il tempo – tanto agli operatori di mercato quanto ai regolatori e supervisori di settore – di testare l’impatto di queste nuove tecnologie, al fine di sfruttarne le opportunità e minimizzare i rischi. Il DLT pilot introduce dunque un regime basato sul c.d. approccio “sandbox” che ammette esenzioni e deroghe temporanee ai requisiti regolamentari specifici previsti dalla legislazione finanziaria europea (ad es. MiFID II, CSDR) proprio per consentire l’apertura di spazi di sperimentazione che agevolino il graduale adattamento delle tradizionali regole del diritto dei mercati finanziari alle nuove tecnologie. […] Il DLT pilot regime, in tale prospettiva, ha un ambito di applicazione ben circoscritto, che non riguarda l’intera possibile gamma di prodotti o servizi che, sul mercato, potrebbero interagire con le nuove tecnologie. Esso, infatti, si applica unicamente a taluni strumenti finanziari emessi a valere sulla tecnologia DLT, introducendo alcune possibili deroghe al regime che, altrimenti, troverebbe applicazione in base alla disciplina MiFID e a quella sui gestori e sistemi di regolamento centralizzati».
Allo stesso tempo l’implementazione sempre maggiore di sistemi dotati di intelligenza artificiale ha portato, dopo ampi dibattiti, all’emanazione del regolamento europeo 2024/1689 (AI Act), il quale classifica i rischi associati all’utilizzo di sistemi di AI e mira a garantire che questi ultimi siano sviluppati e utilizzati in modo responsabile.
[2] Da qualche tempo l’avanzamento tecnologico e la digitalizzazione hanno spinto gli studiosi a occuparsi dei nuovi fenomeni a essi collegati al fine di individuare la relativa disciplina. Dalle macchine a guida autonoma alle criptovalute, dalle decisioni assunte dall’algoritmo agli Smart contracts il giurista è chiamato a risolvere problemi che hanno a oggetto la qualificazione e la regolamentazione dei nuovi fatti e a misurarsi con l’insorgenza di conflitti inediti. La letteratura in materia di Smart contracts inizia a essere molto ampia anche nel panorama italiano, senza pretese di esaustività v. M. Maugeri, Smart contracts e disciplina dei contratti, Bologna, 202; I. Martone, Gli Smart Contracts. Fenomenologia e funzioni, Napoli, 2022; A. Stazi, Autonomia contrattuale e «contratti intelligenti», Torino, 2019; F. Longobucco, Utopia di un’autonoma Lex Criptographi(c )a e responsabilità del giurista, Napoli, 2023; Id, Smart contract e contratto giusto: dalla soggettività giuridica delle macchine all’oggettivazione del fatto-contratto. Il ruolo dell’interprete, in Federalismi.it, 2021, 106 ss.; F. Di Giovanni, Sui contratti delle macchine intelligenti, in U. Ruffolo (a cura di), Intelligenza artificiale. Il diritto i diritti e l’epoca, Milano, 2020, 251 ss.; N. Abriani, G. Schneider, Diritto delle imprese e intelligenza artificiale. Dalla Fintech alla Corptech, Bologna, 2021, 21 ss.; G. Remotti, Blockchain smart contract. Un primo inquadramento, in Oss. dir. civ. e comm., 2020, 189 ss.; F. Delfini, Blockchain, Smart contracts e innovazione tecnologica: l’informatica e il diritto dei contratti, in Riv. dir. priv., 2019, 167; R. Pardolesi, A. Davola, «Smart contract»: lusinghe ed equivoci dell’innovazione purchessia, in Foro it., 2019, V, c. 195; A. U. Jassen, F.P. Patti, Demistificare gli smart contracts, in Oss. dir. civ. e comm., 2020, 31 ss.; M. Farina, Smart contract tra automazione contrattuale e disumanizzazione dei rapporti giuridici, in giustiziacivile.com, 2020, 8; L. Di Nella, Smart Contract, Blockchain e interpretazione dei contratti, in Rass. dir. civ., 2022, 48 ss.; S. Troiano, Il contratto tra analogico e digitale, in Riv. dir. contr., 1, 2022, 51 ss.; F. Di Ciommo, Smart contract e (non-) diritto. Il caso dei mercati finanziari, in Nuovo dir. civ., 1, 2019, 257; Id., Blockchain, smart contract, intelligenza artificiale (AI) e trading algoritmico: ovvero, del regno del non diritto, in Riv. inf. e malatt. prof., 1, 2019, 1 ss.; P. Perlingieri, Il diritto civile nella legalità costituzionale secondo il sistema italo-europeo delle fonti, 4° ed., IV, Attività e responsabilità, Napoli, 2020, 85 ss.; F. Bassan, M. Rabitti, Recenti evoluzioni dei contratti sulla blockchain. Dagli smart legal contracts ai ‘contract on chain’, in Riv. dir. banc., 2023, 561 ss.; D. Di Sabato, Gli smart contracts: robot che gestiscono il rischio contrattuale, in Contr. e impr., 2017, 378 ss.; Id, Autonomia negoziale e distributed lagder technology, in D. Valentino (a cura di), Nuovi contratti delle Digital economy. Singoli contratti. Leggi collegate, Torino, 2020, 245 ss.; F. Gambino, Blockchain, smart contract e diritto sradicato, in Tecn. dir., 2021, 28 ss.; C. Pernice, Distributed ledger technology, blockchain e smart contracts: prime regolazioni, in Tecn. dir., 2, 2020, 490 ss.; S. Landini, Transizione digitale e mercato assicurativo, in Le Corti Fiorentine, 3, 2021, 23 ss.; M. Tommasini, Lo smart contract e il diritto dei contratti, in Jus civile, 2022, 831; M. Giaccaglia, Considerazioni su Blockchain e smart contracts (oltre le criptovalute), in Contr. impr., 2019, 944 ss.; P. Cuccuru, Blockchain ed automazione contrattuale. Riflessioni sugli smart contract, in Nuova giur. civ. comm., 2017, 107 ss.; R Battaglini, M Tullio Giordano (a cura di), Blockchain e smart contract. Funzionamento, profili giuridici e internazionali, applicazioni pratiche, Milano, 2019; V. Bellomia, Il contratto intelligente: questioni di diritto civile, in Judicium, 2020.
[3] Rilevano N. Abriani, G. Schneider, Diritto delle imprese e intelligenza artificiale. Dalla Fintech alla Corptech, cit., 5, che i riflessi sul piano giuridico delle trasformazioni socioeconomiche in atto sono dirompenti ma non ancora del tutto esplorati, in ragione del tradizionale ritardo dell’indagine giuridica rispetto ai fenomeni tecnologici.
[4] Un esempio di questo mutamento è ben visibile osservando il fenomeno della negoziazione in strumenti finanziari. Già con la grande diffusione di Internet, nei primi anni duemila, si è registrato un mutamento rispetto ai tradizionali modelli di esecuzione dei servizi di investimento. Gli intermediari hanno cominciato a fornire tali servizi sfruttando le potenzialità della Rete. Internet e la conseguente introduzione delle piattaforme di trading online hanno aperto le porte a una nuova modalità di contatto con la clientela sia per l’esecuzione dei servizi di negoziazione per conto terzi, sia per la trasmissione e la ricezione degli ordini di investimento. Ad oggi, in tale ambito, sono stati introdotti sistemi, spesso integrati dalla intelligenza artificiale, in grado di lavorare un enorme mole di dati al fine di offrire all’utente – utilizzatore un risultato utile, che sia, almeno in astratto, il migliore possibile rispetto alle informazioni processate e a tutte le opzioni disponibili. Il riferimento corre al trading algoritmico e alla sottocategoria del trading ad alta frequenza. Si tratta di software che in assenza di intervento umano negoziano automaticamente strumenti finanziari.
[5] In uno dei suoi ultimi studi N. Irti, L’ultima transizione, in Riv. dir. civ., 2, 2022, 205 rileva che «la storia del contratto è una storia di tecnologie»; Secondo F. Di Giovanni, Sui contratti delle macchine intelligenti, cit., 251 ss., ogni epoca e ogni esperienza giuridica hanno elaborato diverse idee su ciò che si debba intendere per «contratto».
[6] È intuitivo che le decisioni algoritmiche stiano apportando rilevanti cambiamenti nell’ambito della contrattazione. I vantaggi sono più che mai evidenti, solo per citarne alcuni: efficienza, velocità, sicurezza. Allo stesso modo, è evidente l’urgenza di risolvere le questioni poste dall’utilizzo di questi strumenti.
[7] Si tratta di casi nei quali prima dell’avvio del programma non vi è né una proposta, né una offerta, né un contratto già perfezionato.
[8] G. Teubner, Soggetti giuridici digitali? Sullo status privatistico degli agenti software autonomi, P. Femia (a cura di), Napoli, 2019, 51 ss. Secondo l’A. a contare non sarebbe tanto la capacità interiore della macchina di pensare, quanto invece le interazioni sociali e la capacità dell’algoritmo di partecipare alla comunicazione sociale.
[9] Ritiene A.M. Benedetti, Contratto, algoritmi e diritto civile transnazionale: cinque questioni e due scenari, Riv. dir. civ., 3, 2021, 424., che una sorta di rappresentanza robotica sia compatibile con l’attuale ordinamento. Sul punto sostiene l’A. che se il robot sceglie allora agisce come un rappresentante in quanto le sue scelte producono effetti giuridici su chi ne ha programmato l’azione. Se ciò vale, allora, potrebbero trovare applicazione, anche per il suo agire, le norme che fanno riferimento alla volontà del rappresentato.
[10] Il rilievo relativo alla autonomia decisionale degli algoritmi non sembra condivisibile. Pur quando l’automa conclude e gestisce un affare non è dotato di completa “autonomia d’azione” e ciò è dirimente ai fini del riconoscimento di una sua completa capacità decisionale. Affermare che la macchina abbia autonoma capacità decisionale vorrebbe dire sostenere, anche solo implicitamente, che essa sia in grado di discernere e deliberare in totale autonomia, quando, invece, ciò non è vero per due ragioni. La prima, se non avviata da qualcuno la macchina nulla può fare. La seconda, per quanto sia imprevedibile il risultato, l’automa opera sempre conformemente alle regole di funzionamento poste alla sua base. Sicché quella che si vuol far passare per vera e propria autonomia decisionale del software altro non è che mera conseguenza delle istruzioni di cui esso si compone. Il comportamento della macchina è sempre determinato a monte dal sistema di regole che la governa e la circostanza che essa possa produrre un esito imprevedibile non smentisce ciò. L’imprevedibilità va intesa solo in astratto quale difficoltà di conoscere a priori tutti i possibili risultati ottenibili. La precisazione è d’obbligo: il software non può fare qualcosa che il sistema di regole che lo governa non consenta.
[11] Sul punto v. F. Di Giovanni, Sui contratti delle macchine intelligenti, cit., 265 ss.. L’A., dopo aver ricostruito il percorso argomentativo che conduce a sostenere l’esistenza di una soggettività giuridica in capo alla macchina che si avvale di intelligenza artificiale, critica la posizione sostenendo che tale teoria travisa il senso dell’attribuzione della soggettività di diritto. Infatti, l’esplicarsi di una volontà razionale, intellettiva o volitiva non è di per sé sufficiente al riconoscimento della soggettività, ma, al massimo, dà luogo a fatti valutati dalle norme presenti nell’ordinamento. In generale la questione sulla soggettività giuridica delle macchine è assai dibattuta. In argomento, senza pretese di esaustività v. G. Sartor, Gli agenti software: nuovi soggetti del ciberdiritto, in Contr. impr., 2002, 465 ss., il quale sostiene che la macchina, potendo formare una autonoma volontà, dovrebbe essere considerata una sorta di rappresentante sui generis. Vi è chi riconosce alle macchine una soggettività giuridica parziale o limitata e applicando le regole sulla rappresentanza ritiene la macchina alla stregua di un procuratore dell’uomo, sul punto G. Teubner, Soggetti giuridici digitali? Sullo status privatistico degli agenti software autonomi, cit. Vi è chi sostiene che la categoria della soggettività dovrebbe essere ripensata E. Morotti, Una soggettività a geometrie variabili per lo statuto giuridico dei robot, in Il soggetto di diritto. Storia ed evoluzione di un concetto nel diritto privato, F. Bilotta, F. Raimondi (a cura di), Napoli, 2020, 305, la quale osserva che «nei robot si può riconoscere la presenza prevalente dell’elemento dinamico legato alla sfera dell’agire e ad una generale attitudine a comportarsi, mentre più difficile si rivela non solo il conferimento di una posizione di titolarità di diritti e di beni, ma anche il riconoscimento di una vera e propria personalità. Questo si traduce nell’adozione di un modello di soggettività che è distinto in due momenti, in cui ad un riconoscimento della capacità d’agire nell’ambito contrattuale e dei diritti patrimoniali, fa seguito l’esclusione della capacità giuridica, non essendo attualmente ammissibile non solo la titolarità dei diritti e dei beni e, più in generale, di ogni situazione di appartenenza, ma nemmeno l’attribuzione dei diritti della personalità. Si realizza così uno schema che abbiamo definito “a geometrie variabili” proprio per sottolineare la presenza di una struttura articolata su due livelli, che ben si allontana dal modello classico della soggettività che oggi conosciamo».
Per una rapida ricognizione sulle diverse teorie che riconoscono una soggettività giuridica e quelle che la negano v. F. Longobucco, Utopia di un’autonoma Lex Criptographi( c)a e responsabilità del giurista, cit., nota 11, 16 ss.
[12] Il problema lo ha di recente evidenziato anche la Consob in uno dei suoi ultimi quaderni: F. Consulich, M. Maugeri, C. Milia, T.N. Poli, G. Trovatore, Quaderni Consob, AI e abusi di mercato: le leggi della robotica si applicano alle operazioni finanziarie?, consultabile al seguente indirizzo:https://www.consob.it/documents/11973/201676/qg29.pdf/768199a2e17cca8e00a5186da9a19f79?t=1685344502568, 2023, 8.
[13] Parte della dottrina osserva che la soggettività potrebbe essere riconosciuta agli agenti software purché al riconoscimento segua la verifica e l’individuazione dello strumento giuridico capace di assicurare la tutela degli interessi coinvolti nelle ipotesi in cui dall’uso della tecnologia sia derivato un danno, cfr. M. D’ambrosio, Arbitraggio e determinazione algoritmica dell’oggetto, Napoli, 2020, 28 ss.
[14] Sostiene G. Sartor, Gli agenti software: nuovi soggetti del ciberdiritto?, cit., 486 ss., che l’autonomia dell’agente insieme all’imprevedibilità del suo comportamento conducono a escludere che le decisioni dell’agente siano necessariamente determinazioni del suo utilizzatore. L’agente determina in modo autonomo il contenuto del negozio, secondo le istruzioni impartite e secondo la propria valutazione dell’interesse dell’utilizzatore. In questa prospettiva, l’agente non sarebbe un mero trasmettitore della volontà dell’utilizzatore, ma il suo comportamento sarebbe maggiormente assimilabile a quello di un rappresentante. Tuttavia, si tratterà di una rappresentanza di tipo peculiare in quanto non del tutto sovrapponibile alla disciplina codicistica dettata in materia.
[15] Sul punto v. G. Gitti, La decisione robotica negoziale, in Disciplina contrattuale del mercato e decisione robotica, Brescia, 2020, 224 s. il quale sostiene che nelle ipotesi entro le quali le parti non abbiamo debitamente definito tutto il programma negoziale e nella misura in cui l’attività integrativa della macchina non sia del tutto dipendente dalle direttive impartite dai contraenti e richieda dunque una effettiva determinazione fondata su valutazioni discrezionali o a priori incerte si potrebbe «istituire un raccordo con la fattispecie regolata dall’art. 1349 c.c., di determinazione dell’oggetto del contratto rimessa a un terzo, con la differenza che la relativa decisione determinativa non sarà assunta da un uomo (…) ma per l’appunto da una macchina».
[16] Applicando le regole in materia di rappresentanza, qualora il software emettesse un output imprevedibile e non conforme alle aspettative del contraente utilizzatore, questi potrebbe trovare tutela, con i dovuti accorgimenti, secondo la disciplina della rappresentanza senza potere. Tuttavia, osserva G. Teubner, Soggetti giuridici digitali?, cit., 77 s., che, in mancanza di un patrimonio proprio della macchina, una responsabilità di tal tipo cadrebbe nel vuoto, proprio come accade in ipotesi di falsus procurator irreperibile. Pertanto, avrebbe senso discorrere di responsabilità personale del software se si ammettesse che a esso venga imputato un patrimonio separato. Fino a quanto ciò non accada è necessario trovare un bilanciamento tra gli interessi dell’utilizzatore e partner contrattuale.
[17] Per una critica alla presunta capacità delle macchine di decidere autonomamente v. retro, nota 10.
[18] M. D’ambrosio, Arbitraggio e determinazione algoritmica dell’oggetto, cit, 26.
[19] E. Caterini, L’intelligenza artificiale «sostenibile» e il processo di socializzazione del diritto civile, Napoli, 2020, 109 ss., secondo l’A. l’attribuzione della soggettività giuridica alla persona poggia, invece, su di un diverso presupposto. «La persona è soggetto in quanto valore, giammai in quanto interesse. Dinnanzi alla persona umana l’ordinamento arresta ogni valutazione teleologica per riconoscere il valore in sé». In questa prospettiva la persona, ai fini della soggettività, possiede una fonte legittimante distinta dal soggetto.
[20] E. Caterini, op. ult. cit., 111.
[21] Cfr. R. Miguel Nunez, Le avventure del soggetto. Contributo teorico-comparativo alle nuove forme di soggettività giuridiche, Milano, 2018, 105, secondo il quale una entità non diviene soggetto sol in ragione delle qualità empiriche o metafisiche detenute, né in quanto dotata di volontà. La soggettività gli è riconosciuta in quanto esiste un interesse socialmente rilevante che la comunità attribuisce a quella entità.
[22] Sulla non essenzialità del soggetto per l’esistenza della situazione giuridica soggettiva e del rapporto giuridico v. P. Perlingieri, Il diritto civile nella legalità costituzionale secondo il sistema italo-comunitario delle fonti, III ed., Napoli, 2006, 690 ss., secondo il quale se l’attualità del soggetto non è essenziale ai fini della esistenza della situazione giuridica soggettiva (come accade nei casi di diritto alla vita del concepito, diritto all’onore del defunto, donazione al nascituro, ecc.) allora «significa che può esistere una relazione giuridicamente rilevante tra due o più centri di interessi senza che essa si traduca necessariamente in relazione tra soggetti».
[23] Secondo U. Ruffolo, La “personalità elettronica”, in Intelligenza artificiale. Il diritto, i diritti, l’etica, cit., 226, la soggettività degli agenti digitali potrebbe avere senso se le loro dichiarazioni produttive di effetti giuridici potessero essere compiute anche nell’interesse proprio e non quando, al contrario, le scelte effettuate sono operate nell’interesse altrui.
[24] Secondo E. Caterini, op. ult. cit., 102, l’interesse diviene il generatore della soggettività giuridica.
[25] Se il fine del riconoscimento della soggettività è, come sembra, quello di far ricadere sugli automi le conseguenze delle azioni da essi compiuti, di modo da proteggere il patrimonio di chi la macchina utilizza e, allo stesso tempo, offrire una garanzia agli altri contraenti e tutelare coloro che dall’attività della macchina subiscono una lesione, allora, forse, per il raggiungimento di detto obiettivo non sembra neppure necessario il previo riconoscimento della soggettività in capo agli algoritmi, quanto invece si dovrebbe verificare se vi è la possibilità di costituire un patrimonio destinato. In proposito, ritiene possibile la creazione di un patrimonio separato e destinato a rispondere dei danni verso terzi causati dalla macchina F. Longobucco, op. ult. cit., 19 ss . È noto, infatti, che l’ordinamento prevede la possibilità di costituire patrimoni separati e/o destinati a uno scopo, senza la necessità che questi ultimi facciano capo a soggetti di diritto diversi da quelli che provvedono alla destinazione. Se nelle ipotesi oggetto di scrutinio ciò fosse consentito la macchina resterebbe strumento, ma le conseguenze giuridiche degli atti e dei comportamenti di essa ricadrebbero su di un patrimonio diverso da quello personale dell’utilizzatore. Tuttavia, allo stato attuale, neanche questa strada sembra percorribile. Se non altro in quanto la creazione di patrimonio autonomo si giustifica in funzione del perseguimento di un interesse diverso sia da quello di chi effettua la destinazione, sia di chi è titolare del potere gestorio. Sul punto, in materia di separazione patrimoniale v. R. Di Raimo, Il patrimonio fra unità e segmentazione, in Riv. dir. banc., 2023, 237 ss. Ciò non esclude in radice che, ragionando in una ottica di politica del diritto, venga consentita la costituzione di fondi deputati a ristorare quanti subiscano una lesione dall’utilizzo di sistemi di intelligenza artificiale.
[26]Sostiene F. Di Giovanni, Attività contrattuale e intelligenza artificiale, cit., 1684, che ritenere che il contratto sia essenzialmente e completamente il frutto della volontà dei contraenti, sulla base del pieno controllo delle informazioni e della consapevole rappresentazione della realtà, risponde a una visione «mitica» del contratto e non accettabile. Non accettabile in quanto l’ordinamento già ammette che il contenuto del contratto non derivi dalla autodeterminazione dei contraenti, ed è il caso dell’art. 1349 c.c., ma soprattutto in quanto questa visione del contratto non tiene conto del fatto che ogni rapporto contrattuale è sempre costituito da un materiale molto più complesso di ciò che i contraenti si rappresentano. Secondo F. Di Ciommo, Blockchain, smart contract, intelligenza artificiale (AI) e trading algoritmico, cit., 4 «quando il contratto si conclude esclusivamente attraverso l’attività di uno o più software, l’accertamento dei presupposti fattuali si svolge in base al contratto quadro. Tale regolamento esprime la comune volontà delle parti di pervenire alla conclusione dei contratti a valle, attraverso sistemi automatizzati».
[27] Sul punto v. sull’effetto organizzativo P. Ferro Luzzi, I contratti associativi, Milano, 1972, 170 ss.
[28] È stato dimostrato, seppure a fini assai diversi e inerenti alla tutela di interessi di carattere generale, che in concreto l’autoregolazione può mancare e, pertanto, ciò che davvero identifica gli atti e le attività dei soggetti, pubblici o privati, è l’atto di iniziativa. In questa prospettiva, è l’atto di iniziativa a essere il minimo comune denominatore di tutti gli atti di autonomia, di guisa che è sufficiente che vi sia iniziativa perché possa esservi anche contratto, cfr. P. Perlingieri, Il diritto civile nella legalità costituzionale, Attività e responsabilità, cit., 5 ss.
[29] Ritiene G. Lemme, La transizione giuridica. La crisi del diritto di fronte alla sfida tecnologica, Torino, 2023, 102 che «[…] nell’utilizzare un sistema informatico per concludere un contratto, l’utente si assoggetta alle regole dello strumento, rinunciando alle protezioni che inevitabilmente si riconnettono alla manifestazione di volontà con uno strumento tradizionale. La manifestazione della volontà, dunque, si esaurirebbe nella scelta iniziale, alla quale consegue, per facta concludentia, lo sviluppo di altra forma della volontà negoziale».
[30] Sui fondamenti diversificati dell’autonomia negoziale in relazione agli interessi e ai valori da realizzare v. P. Perlingieri, Il diritto civile nella legalità costituzionale secondo il sistema italo-comunitario delle fonti, Napoli, 2006, 326 ss.
[31] Sulla ricostruzione dell’autonomia negoziale quale atto di iniziativa e sul suo fondamento variabile v. P. Perlingieri, Il diritto civile nella legalità costituzionale, cit., 322 ss. Con particolare riferimento ai mercati finanziario e bancario v. R. Di Raimo, Ufficio di diritto privato e carattere delle parti professionali quali criteri ordinanti delle negoziazioni bancaria e finanziaria (e assicurativa), in Giust. civ., 2020, 2, 330 ss.
[32] Sul punto R. Di Raimo, op. ult. cit., 345 ss.
[33] Cfr. R. Di Raimo, Categorie della crisi economica e crisi delle categorie civilistiche: il consenso e il contratto nei mercati finanziari derivati, in Giust. civ., 2014, 1120 ss.; Id., Ufficio di diritto privato e carattere delle parti professionali quali criteri ordinanti delle negoziazioni bancaria e finanziaria (e assicurativa), cit., 321 ss.
[34] Sulla natura interna dei limiti all’autonomia negoziale cfr. P. Perlingieri, Il diritto civile nella legalità costituzionale, cit., 334 ss.
[35] R. Di Raimo, Ufficio di diritto privato e carattere delle parti professionali quali criteri ordinanti delle negoziazioni bancaria e finanziaria (e assicurativa), cit., 321.
[36] Per la costruzione dell’ufficio di diritto privato alla quale si fa riferimento v. S. Pugliatti, Esecuzione forzata e diritto sostanziale, Milano, 1978 (ristampa), 23 ss.
[37] Cfr. R. Di Raimo, Ufficio di diritto privato e carattere delle parti professionali quali criteri ordinanti delle negoziazioni bancaria e finanziaria (e assicurativa), cit., 321 ss. Id, Categorie della crisi economica e crisi delle categorie civilistiche: il consenso e il contratto nei mercati finanziari derivati, cit., 1120 ss., secondo il quale il riconoscimento della natura discrezionale del potere presuppone l’esistenza di una norma che ne orienti la funzione e che dunque definisca il contenuto specifico della situazione di autonomia contrattuale, oltre la generica previsione dell’art. 41 Cost. L’autonomia, come da tempo rilevato e sostenuto, non ha fondamento unitario; pertanto, il fondamento si rintraccia di volta in volta secondo gli interessi coinvolti. Così può essere distinto ad esempio il fondamento dell’autonomia a contenuto non patrimoniale in quanto integrato dai principi fondamentali degli artt. 2 e 3 Cost. oppure il fondamento della autonomia della PA integrato dagli artt. 97 ss. L’autonomia dell’intermediario trae invece il suo contenuto specifico dall’art. 47 Cost. «rispetto a questa norma e al valore da essa dedotto, tale attività è poi (…) in senso stretto funzionalizzata per il tramite dell’art. 21 TUF e, per ciò stesso, costituisce il parametro sulla base del quale è valutabile il corretto esercizio del corrispondente potere discrezionale».
[38] Il potere, in questo senso, rappresenta il mezzo per il raggiungimento di un fine determinato, cfr. S. Pugliatti, Esecuzione forzata e diritto sostanziale, cit., 24.
[39] Con riferimento alla fase di valutazione del merito di credito, parte degli studiosi ritiene, condivisibilmente, che la banca sia titolare di un ufficio di diritto privato e dunque di un potere discrezionale e non libero: R. Di Raimo, Ufficio di diritto privato e carattere delle parti professionali quali criteri ordinanti delle negoziazioni bancaria e finanziaria (e assicurativa), cit., 321 ss.
[40] La letteratura in materia di credit scoring è ampia, senza pretese di esaustività: F. Bagni, Uso degli algoritmi nel mercato del credito: dimensione nazionale ed europea, in Osservatorio sulle fonti, 2, 2021, 909 ss.; L. Ammannati, G.L. Greco, Piattaforme digitali, algoritmi e big data: il caso del credit scoring, in Riv. trim. dir. econ., 2021, 290; Id, Il credit scoring “intelligente”: esperienza, rischi e nuove regole, in Riv. dir. banc., 2023, 261; M. Rabitti, Credit scoring via machine learning e prestito responsabile, ivi, p. 174 ss.; Id, Discriminazioni tecnologiche e Fin-Tech, in Riv. dir. impr., 3, 2023, 467 ss.; F. Mattassoglio, La valutazione “innovativa” del merito creditizio del consumatore e le sfide per il regolatore, in Dir. banc. merc. fin., 2020, 187 ss.; Id., La Corte di giustizia europea, algoritmi e credit scoring. L’apertura del vaso di Pandora delle società che si “limitano” a elaborare gli scoring, in Dialoghi di Diritto dell’Economia, gennaio 2025, https://www.dirittobancario.it/wp-content/uploads/2025/01/2025-Mattassoglio-Creditscoring.pdf.; P. Gaggero, C.A. Valenza, Le moderne tecniche di credit scoring tra GDPR, disciplina di settore e AI Act, in Riv. dir. banc., 2024, 825 ss.; C.A. Valenza, Modelli innovativi di valutazione del merito creditizio: contesto normativo e prospettive di regolamentazione, in Intelligenza artificiale e rapporti bancari, M. Proto (a cura di), Pisa, 2024, 107 ss.; E. Capobianco, Intelligenza artificiale e rapporti bancari, in Riv. dir. banc, 2024, 997 ss. Con precipuo riferimento alla disciplina del credit scoring nel solco del dibattito sul ruolo della volontà negoziale nei sistemi di intelligenza artificiale v. anche P. Gaggero, Innovazione tecnologica e ruolo della volontà negoziale nel mercato dei capitali, in Riv. dir. banc., 2025, 1 ss.
[41] Il Regolamento infatti prevede che i sistemi ad alto rischio siano sviluppati e progettati in modo da garantire in favore dell’utilizzatore la trasparenza del funzionamento e la comprensibilità del risultato ottenuto dalla macchina ai fini del corretto utilizzo del risultato stesso. Lo stesso Regolamento inoltre prevede, ove non altrimenti previsto da altre fonti dell’Unione, il diritto alla spiegazione dei singoli processi decisionali in favore della persona destinataria degli effetti della decisione algoritmica o che, in modo analogo, subisca l’incidenza negativa del risultato della macchina nella sfera della sua salute, della sua sicurezza, o dei suoi diritti fondamentali.
[42] Cfr. direttiva 2023/2225/UE art. 18, par. 8.