WEBINAR / 30 Settembre
DORA e subappalto di servizi ICT


Gestione del rischio ICT e dei contratti nei nuovi RTS DORA

ZOOM MEETING
Offerte per iscrizioni entro il 09/09


WEBINAR / 30 Settembre
DORA e subappalto di servizi ICT
www.dirittobancario.it
Articoli

Intelligenza artificiale, mercati e intervento pubblico nell’economia: la regolazione della complessità e la prospettiva (incerta) della sovranità digitale

7 Agosto 2025

Lorenzo Rodio Nico, Dottore di ricerca in Economia e Finanza delle Amministrazioni Pubbliche, Università degli Studi di Bari

Di cosa si parla in questo articolo

SOMMARIO: L’intelligenza artificiale ha già dimostrato di essere una tecnologia che ha il potenziale di riconfigurare strutturalmente sistemi economici, processi decisionali, mercati e funzioni pubbliche. Il suo rapido sviluppo solleva interrogativi sulla capacità delle istituzioni di regolarne l’evoluzione in modo da conciliare la tutela dei diritti fondamentali cona la sicurezza e la promozione dell’innovazione. In tale prospettiva, l’Unione Europea ha adottato un approccio fondato sulla classificazione del rischio, formalizzato nell’AI Act, che introduce obblighi differenziati a seconda dell’impatto potenziale dei sistemi di IA. Questo modello regolatorio, di tipo prudenziale, si distingue sia dalla strategia statunitense, basata su libertà d’impresa e incentivi pubblici, sia da quella cinese, incentrata su un controllo diretto da parte dello Stato. L’approccio europeo mira a un equilibrio tra integrazione del mercato digitale e salvaguardia dei valori costituzionali, ma presenta limiti in termini di rigidità normativa e impatto sull’attrattività del mercato interno. Nel contesto italiano, l’iniziativa legislativa rappresentata dal Disegno di Legge 1146/2024 riflette l’intento di rafforzare lo sviluppo tecnologico nazionale, pur evidenziando tensioni con il quadro regolatorio europeo e con la capacità industriale interna. Il riferimento alla “sovranità digitale” si traduce, in alcuni casi, in vincoli che rischiano di ostacolare l’adozione dell’IA nei settori pubblici, compromettendo la competitività e la sperimentazione. Il quadro complessivo mette in luce una contraddizione tra l’impianto prudenziale dell’AI Act e le recenti politiche europee volte a flessibilizzare gli aiuti di Stato per promuovere la ricerca e lo sviluppo tecnologico. L’assenza di un coordinamento efficace tra regolazione e programmazione economica potrebbe limitare la capacità dell’Europa di consolidare una posizione di leadership nella competizione globale per il controllo e l’applicazione delle tecnologie di intelligenza artificiale.

ABSTRACT: Artificial intelligence has the capacity to reshape economic systems, decision-making processes, markets, and public functions. Its accelerated development raises concerns regarding institutional ability to regulate such transformation while safeguarding fundamental rights, ensuring security, and supporting innovation. Within this context, the European Union has adopted a risk-based regulatory framework through the AI Act, which imposes varying obligations depending on the potential impact of AI systems. This precautionary approach differs markedly from both the United States’ model – characterized by free-market dynamics and public investment – and China’s state-driven model of direct control. The EU seeks to balance digital market integration with the protection of constitutional values, but its framework risks excessive rigidity, potentially discouraging investment and technological deployment. In the Italian context, the proposed Law No. 1146/2024 aims to promote national technological development yet reveals tensions with the EU legal framework and the limited industrial capacity of the domestic market. The invocation of “digital sovereignty” sometimes translates into regulatory burdens that may hinder AI adoption in the public sector and impede innovation. Overall, the analysis underscores a structural inconsistency between the risk-averse orientation of the AI Act and the European Union’s recent shift toward more flexible state aid policies supporting research and technological advancement. Without a coherent alignment between regulation and economic planning, Europe may struggle to assert leadership in the global race to develop and govern frontier technologies such as artificial intelligence.


1. Il mercato dell’Intelligenza artificiale: da un breve inquadramento storico allo stato attuale

Le tecnologie di frontiera rappresentano quella categoria di strumenti che «hanno il potenziale di sconvolgere lo status quo, alterare il modo in cui le persone vivono e lavorano, riorganizzare i pool di valore e portare a prodotti e servizi completamente nuovi»[1]. Tra tutte le nuove tecnologie l’Intelligenza Artificiale[2] sembra essere quella che più si avvicina al concetto di tecnologia di frontiera atteso che, come altre tecnologie che hanno cambiato il corso della storia, anch’essa rappresenta un evidente punto cardine nel progresso globale.

Si tratta, quindi, di una tecnologia in grado di poter ridefinire gli assetti socioeconomici globali, di trasformare significativamente le catene del valore e i macrosettori economici, ciò primariamente grazie alla capacità di elaborare grandi quantità di dati, automatizzare processi complessi e fornire supporto decisionale ed è uno strumento in grado di provocare quello che è stato definito «il grande balzo storico dell’inizio del terzo millennio»[3].

L’influenza di questa fattispecie di tecnologie, quindi, si riverbera in maniera totalitaria con il coinvolgimento di tutti gli attori della società, dal settore pubblico a quello privato, sia in via orizzontale che verticale. Tant’è che l’IA[4] rientra tra quelle tecnologie c.d. «distruttive»[5], in grado di attivare processi di “distruzione creativa”[6] tali da rivoluzionare la società e il mercato[7].

La particolarità dell’IA è il percorso storico assai peculiare che la caratterizza, consistente da una prima fase di ricerca risalente alla prima metà del ‘900[8], seguita poi da uno sviluppo scarno legato alla sua dipendenza diretta dal progresso tecnologico di altri settori (microchip e schede grafiche) e dalla potenza computazionale disponibile, che non ne ha permesso una adeguata sperimentazione iniziale[9].

Solo a partire dal 2010, l’accesso e l’archiviazione di enormi quantità di dati[10]impiegabili per l’apprendimento delle macchine e l’impiego di hardware in grado di accelerare i processi di apprendimento dell’I.A[11], sono riusciti a rappresentare una svolta per lo sviluppo di questa tecnologia.

In sostanza, il percorso di sviluppo dei sistemi di IA è stato contrassegnato sì da un lungo ed iniziale andamento altalenante ma, oggi, la sua crescita può definirsi tout court rapida ed esponenziale[12].

Alla luce dell’espansione repentina che questa tecnologia ha avuto negli ultimi anni e delle sue potenzialità future, uno sviluppo concreto (e corretto) dell’IA, può permettere un posizionamento efficace (di leader) degli Stati sulla frontiera tecnologica a livello globale. In particolare, per i paesi già sviluppati e industrializzati, si può arrivare a ipotizzare anche uno spostamento in avanti della frontiera tecnologica a garanzia di una consistente crescita economica.

Conseguentemente, l’IA, come le altre tecnologie di frontiera hanno la caratteristica di determinare la nascita (rapida) di nuovi mercati o lo sviluppo di quelli già esistenti, richiedendo interventi normativi tempestivi per regolarne l’utilizzo.

L’adozione diffusa dell’IA, però, solleva criticità sulla tassonomia e sul metodo di utilizzo della stessa, nonché problematiche in tema di trasparenza, responsabilità e neutralità delle decisioni automatizzate. Le sfide in tal senso sono numerose e, tra queste l’effetto black box, ovvero la difficoltà di comprendere il processo decisionale interno dei sistemi[13], e i c.d. “pregiudizi” algoritmici[14], derivanti dall’addestramento dei modelli su dati che possono contenere bias[15] impliciti[16], ne rappresentano solo alcune.

La regolamentazione del mercato dell’IA non solo deve garantire un uso etico e sicuro, ma anche promuovere l’innovazione e lo sviluppo economico, ciò attraverso l’adozione di quadri normativi robusti ma, allo stesso tempo, flessibili, atteso che l’importanza di regolare un nuovo mercato non si ferma solo alla tutela dell’individuo, ma coinvolge anche la stabilità economica, gli impatti sociali e la competitività nel mercato globale.

La tecnologia in esame, infatti, ha il potenziale di migliorare significativamente la produttività e la crescita economica. Ciò, tuttavia, introduce nuove sfide, come il mutamento del mercato del lavoro e la concorrenza sleale. Un mercato regolato potrebbe garantire un equilibrio quale risultato della combinazione della supervisione nazionale e sovranazionale.

I sistemi di IA, specialmente quelli utilizzati in aree critiche come la sanità e la finanza, devono aderire a elevati standard di trasparenza e responsabilità. Il potenziale dell’IA di facilitare attività criminali, denominato AI-Crime, sottolinea la necessità di una regolamentazione che prevenga l’uso improprio promuovendo al contempo l’innovazione.

L’approccio europeo sul punto, che mira a bilanciare l’integrazione del mercato con lo sviluppo responsabile dell’IA, è un esempio di ricerca di equilibrio o di «ritmo»[17].

Una posizione regolatoria proattiva diviene quindi essenziale purché conservi una flessibilità e un’adattabilità tali da poter tenere il passo con i rapidi avanzamenti tecnologici.

Pertanto, possono rilevarsi due aspetti che contraddistinguono l’attuale contesto: in primo luogo, vi è la regolamentazione dell’IA che, a livello europeo, è sì avvenuta in tempi ragionevoli se rapportata alla velocità di diffusione della tecnologia, ma che presenta numerose criticità; in secondo luogo, emerge come il settore privato sia la colonna portante dello sviluppo della tecnologia in esame e, solo nei tempi più recenti, si è potuto osservare un ingresso dell’IA nella programmazione economica europea[18] e statale, ma tali iniziative potrebbero non essere adeguatamente sostenute da un apparato normativo troppo restrittivo in termini di libertà di sviluppo.

2. Intelligenza Artificiale e governance: il difficile equilibrio tra progresso tecnologico e controllo

Per affrontare le sfide poste dall’IA diviene necessario un intervento legislativo equilibrato, al fine di sviluppare una regolamentazione che possa garantire livelli elevati di trasparenza e spiegabilità dei sistemi, identificare e mitigare i pregiudizi e promuovere l’equità e l’inclusione assicurando che gli utenti possano anche comprendere e contestare le decisioni della stessa.

Tale intervento, però, non appare di semplice attuazione[19], poiché una governance eccessivamente restrittiva può anche divenire un freno per lo sviluppo e la crescita economica.

A quanto esposto può aggiungersi un ulteriore aspetto: se la normazione avviene in maniera errata o è troppo permissiva, può ingenerare, invece, effetti negativi; pertanto, regolare la tecnologia e promuoverne lo sviluppo è, di fatto, una questione di equilibrio.

L’adozione dell’AI Act rappresenta una delle più importanti iniziative a livello globale (ed europeo) in materia di regolamentazione specifica di una singola fattispecie tecnologica. Se, però, l’atto rappresenta un passo importante verso lo sviluppo di un quadro normativo che favorisca l’innovazione responsabile e la tutela dei mercati coinvolti, ciò non garantisce che tale iniziativa non rappresenti, invece, una limitazione alla ricerca e allo sviluppo tecnologico.

Sul punto i policymaker e i regolatori svolgono ruoli fondamentali, difatti «al primo competono le scelte in materia di libertà e responsabilità nello sviluppo dell’intelligenza artificiale; al secondo appartengono i compiti di tradurre tali scelte in regole applicabili in un contesto di mercato; ciò disciplinando quella nuova commistione tra uomo e macchina che, al presente, condiziona la formulazione dell’offerta e della domanda di capitali, di servizi bancari e di strumenti finanziari»[20].

La capacità di elaborare una governance e regolare nuovi mercati prima di altre economie può rendere la tecnologia emergente fruibile al pubblico più rapidamente, evitare correttivi ex post a tecnologie già commercializzate e diffondere i prodotti all’interno del mercato o esportarli, con un conseguente vantaggio tecnologico ed economico per le imprese private e per lo Stato che lo ha promosso.

Viceversa, anche il mercato può influenzare le scelte del regolatore e tale fenomeno può osservarsi nelle tre diverse politiche di intervento adottate rispettivamente dagli Stati Uniti, dalla Cina e dall’Unione Europea per il mercato tecnologico. I primi hanno un «approccio tecno-libertario […] incentrato sulla primazia del libero mercato tecnologico e dunque del libero esercizio del potere tecnologico ed economico»[21]; la seconda opera un profondo controllo statale sulle tecnologie[22] mentre la terza ha un approccio mediano che punta alla creazione e/o produzione di tecnologie anche nella tutela dei diritti e dei principi sulla quale fonda in maniera diversa «rispetto alle opzioni più radicali improntate al laissez-faire statunitense e all’iperstatalismo cinese, prospettando la possibilità di una mediazione tra le esigenze di promozione dell’integrazione del mercato digitale europeo e di una effettiva incorporazione, nel funzionamento di questo stesso mercato, dei valori fondanti le tradizioni costituzionali dell’Unione e degli Stati membri»[23].

La difficoltà di regolare una tecnologia di frontiera si rileva proprio dal lungo percorso legislativo europeo che ha portato all’adozione del Regolamento europeo dell’IA e ha consolidato il modello regolatorio europeo “rights-driven”[24]. L’iter ha visto un concatenarsi di numerosi atti di soft law e, in particolare, di atti di pre-law, e para-law[25]che hanno posto le basi per una prima idea di governance europea di IA, la cui origine può rinvenirsi[26] nella pubblicazione delle “raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica”[27] (CLRR), documento con il quale è stato sottolineato il possibile impatto dei processi delle decisioni automatizzate[28]. Solo quattro anni dopo, nel 2021, la Commissione europea ha elaborato la proposta di Regolamento sull’Intelligenza Artificiale[29], poi definitivamente approvata a giugno 2024.[30]

Con l’AI Act, le autorità europee mirano a preparare il mercato dell’Unione garantendo l’introduzione di prodotti di IA che siano sicuri, affidabili[31] ed etici[32]. Per fare ciò, il Regolamento fonda su un sistema basato sul rischio[33] che permette di classificare le IA attraverso dei criteri di valutazione predeterminati. Tale sistema deve essere adattabile a seconda della portata dei rischi che possono essere generati da un singolo sistema di IA con una previsione espressa di divieti sull’utilizzo di determinati sistemi e a stabilire i vincoli di sviluppo per gli operatori e gli annessi obblighi di trasparenza[34].

A seconda del livello di rischio assegnato, i sistemi di IA devono rispettare una serie di requisiti obbligatori nonché seguire delle procedure di valutazione della conformità prima di poter essere immessi sul mercato.

Fra le priorità individuate dalla Commissione, viene in evidenza in primo luogo quello del rispetto dei diritti fondamentali, tant’è che la tutela di questi ultimi è un requisito per determinare se un’IA è, o meno, ad alto rischio[35].

Con tale scelta si mira a ridurre le possibilità che si verifichino fenomeni diffusi di discriminazione algoritmica, anche attraverso l’utilizzo di dataset che siano sottoposti ad una sorveglianza umana attiva durante l’annotazione e la catalogazione.

Vengono individuati essenzialmente due livelli di rischio: pratiche di IA vietate (che comporta il divieto di determinate pratiche o usi dei sistemi di IA (art. 5) e ad alto rischio (artt. 6 e ss.), in continuità con l’approccio prudenziale europeo che nel caso di specie si applica attraverso una limitazione dell’accesso al mercato di quei prodotti ritenuti troppo pericolosi il cui impatto non può essere mitigato[36]. In merito, è stato rilevato come l’approccio strategico e regolatorio dell’Unione nei confronti dell’I.A sembri subire, in parte, le influenze dalla crisi del 2008. Ciò potrebbe aver portato la Commissione a porsi nei confronti dell’IA come una sorta di seme di una possibile tecno-crisi, «che si aggiunge a quelle già esistenti ed è destinata a interagire con queste in modi non ancora del tutto prevedibili» decidendo, «nello stesso tempo, di sostenere e di alimentare tale fattore»[37] che influenza direttamente anche l’iniziativa normativa[38].

Occorre porre in luce che la tecnologia in esame, se non gestita e regolata nel modo corretto (o con una corretta flessibilità), potrebbe portare ad affrontare una nuova crisi che coinvolgerebbe tutti i settori[39].

2.1. (segue) … il sistema basato sul rischio: flessibilità normativa o limite implicito?

Proprio questo timore nei confronti dell’IA ha portato la Commissione a sviluppare un sistema basato sul rischio[40].

La circostanza che oggi il Regolamento preveda solo due livelli di rischio rinviene da una modifica sostanziale rispetto a quanto originariamente previsto nella proposta che, invece, distingueva tre livelli di rischio «i) un rischio inaccettabile – ad esempio quelle che violano i diritti fondamentali e non sono immettibili nel mercato -; ii) un rischio alto; iii) un rischio basso o minimo»[41].

La scelta di rimuovere la classificazione a “rischio basso o minimo” introduce un regime residuale nel quale dovrebbero ricadere tutti quei sistemi di IA non classificabili nei primi due e, pertanto, dovrebbero essere disciplinati (oltre che dalle previsioni generali dell’AI ACT) anche da altri strumenti giuridici unionali e/o nazionali[42].

Durante il suo iter legislativo, il Regolamento non è rimasto esente da critiche. Se per un verso si è posto in evidenza come esso possa portare alla creazione di categorie normative astratte e non adeguate ai singoli sistemi immessi nel mercato; per altro verso, è stata lamentata una assenza della figura umana e del rapporto uomo-macchina, che dovrebbe essere proprio il primo soggetto da tutelare[43]  e una certa «vaghezza e lacunosità»[44] sul controllo esercitabile nello sviluppo dei sistemi che la proposta relega ad un controllo interno del fornitore.

Numerosi sono anche i rilievi sollevati dalle stesse autorità di regolazione sulla proposta di Regolamento, in particolare in merito alla definizione di IA fornita dalla Commissione, che è stata ritenuta troppo stringente, necessitando piuttosto di un «un approccio adattivo ed evolutivo»[45].

Dall’altra parte anche l’approccio basato su elenchi è stato oggetto di pareri negativi, poiché ritenuto a rischio di «generalizzare una serie di impieghi (dell’IA)», e ciò deriverebbe dalla circostanza che «il rispetto dei requisiti stabiliti per l’IA ad alto e medio rischio[46] non riduce necessariamente i rischi di un pregiudizio alla salute, alla sicurezza e in generale ai diritti fondamentali associati a tutta l’IA ad alto rischio»[47].

Anche il sistema basato sul rischio, sul quale si fonda il Regolamento, non appare pienamente condivisibile. Come lo stesso termine Intelligenza Artificiale indica, si tratta di sistemi “intelligenti” (tenendo comunque conto della macro-distinzione tra IA forte e IA debole), in grado di apprendere in maniera più o meno autonoma. In via teorica, tutti i sistemi di IA dovrebbero intendersi ad “alto rischio”, non distinguendo per il settore in cui essi debbano essere impiegati ma proprio perché la tecnologia è intrinsecamente ad alto rischio. Se l’IA non fosse stata considerata una tecnologia ad alto rischio sin dal principio, sarebbe stato sufficiente applicare una normativa già vigente[48], senza elaborare un apposito regolamento.

Altresì, è stato rilevato che l’A.I. Act ha un orientamento esplicito agli obiettivi del mercato interno e si allontana dalla più tradizionale legislazione dell’UE in materia di sicurezza che esplicitamente tutela determinati diritti (su tutti quello della privacy del GDPR[49]). In particolare, l’«AI Act può talvolta sembrare più vicino a strumenti orientati al mercato, come la legge sui mercati digitali, che a strumenti espressi in termini di diritti fondamentali, come il GDPR»[50].

Alla luce di ciò il regolamento che, se prima facie può sembrare meramente tassonomico e in linea con gli altri regolamenti europei in materia digitale, ha una concreta portata economica.

Sul punto possono richiamarsi due circostanze esemplificative.

In primo luogo, nell’AI Act, viene fatto esplicito divieto di immissione sul mercato (art. 5, c. 1, lett. d) «di un sistema di IA per effettuare valutazioni del rischio relative a persone fisiche al fine di valutare o prevedere il rischio che una persona fisica commetta un reato, unicamente sulla base della profilazione di una persona fisica o della valutazione dei tratti e delle caratteristiche della personalità; tale divieto non si applica ai sistemi di IA utilizzati a sostegno della valutazione umana del coinvolgimento di una persona in un’attività criminosa, che si basa già su fatti oggettivi e verificabili direttamente connessi a un’attività criminosa». Il riferimento appare esplicito nei confronti dei c.d. Risk Assesment Tools che vengono impiegati (principalmente negli Stati Uniti, ma anche in Spagna e Inghilterra) per la valutazione del rischio degli imputati e che negli anni sono stati oggetto di studio e di critica[51]. Tali strumenti, che secondo l’AI Act non dovrebbero essere immessi sul mercato, sono allo stato attuale (in Europa) meri algoritmi di calcolo statistico e non sistemi di “Intelligenza Artificiale” assoggettabili al Regolamento europeo. Con l’entrata in vigore di quest’ultimo, è molto elevata la probabilità che le imprese produttrici perdano interesse nel finanziamento della ricerca su tali strumenti, portando ad una situazione di stallo nel loro sviluppo e nell’effettuare il salto da algoritmo a sistema intelligente. Ciò a discapito sia della ricerca tecnologica in sé, sia anche di coloro che subiscono gli effetti di tali applicativi, che potrebbero beneficiare da un miglioramento della stessa attraverso la tutela normativa.

In secondo luogo, il Regolamento sembra tenere conto, solo in parte, del c.d. “cambiamento tecnologico”[52] che caratterizza tecnologie digitali, la cui peculiarità risiede in una instabilità evolutiva[53] a cui deve far fronte il legislatore attraverso aggiornamenti e sperimentazioni normative (le c.d. sandboxes), che comunque sono state inserite nell’AI Act. La questione sorge sulla fattibilità di tale approccio. Dalla proposta al regolamento definitivo hanno preso piede (in meno di tre anni) le General-Purpose Artificial Intelligence (GPAI) che hanno già raggiunto il mercato mainstream (Chat GPT su tutti) e tali fattispecie sono state inserite direttamente all’interno dell’AI Act (art. 51) ma tale approccio appare insostenibile nel lungo termine anche solo in riferimento alle stesse GPAI.

Questo perché, come è stato evidenziato, se la governance si elabora «nelle prime fasi dello sviluppo tecnologico» si «potrebbero perdere informazioni importanti sulle tecnologie di IA di uso generale e sul loro impatto sulla società, portando a soluzioni inadeguate ai problemi legali»; se, invece, si agisse tardivamente la regolamentazione sarebbe «adottata solo una volta che gli effetti negativi di queste tecnologie saranno già manifesti, con conseguenze potenzialmente catastrofiche».[54]

È probabile che tali “conseguenze catastrofiche” rappresentino uno dei principali motivi dell’azione regolatoria preventiva che è stata posta in essere, nonché della c.d. “regulatory brutality[55] posta in essere attraverso il Regolamento, tesa alla quasi totale inosservanza da parte del legislatore europeo dei sistemi giuridici degli Stati membri nella regolamentazione delle tecnologie digitali.

Invero, le conseguenze di tali scelte potrebbero anche spingere le imprese a rinunciare al progresso e alla ricerca a favore di un “dumbing down” o “de-AI-ing” dei propri prodotti al solo fine di evitare l’adeguamento alla normativa[56], il tutto a discapito del mercato e del progresso tecnologico, che sono, invece, costantemente attenzionati nella programmazione economica europea.

3. Dalla regolazione alla promozione: l’intervento pubblico negli investimenti strategici e le politiche di sviluppo per il mercato tecnologico

Come si è già avuto modo di accennare, tra attività legislativa e progresso tecnologico vi è una interconnessione che, però, quando trattasi di IA, diviene più sinergica.

Per porre in evidenza l’importanza di tale rapporto, è utile osservare quello che è l’approccio statunitense sul punto. Negli ultimi anni, difatti, parallelamente all’evoluzione della legislazione sull’IA in Europa, gli Stati Uniti[57] hanno introdotto una serie di atti che non solo favoriscono lo sviluppo e la ricerca in materia ma, altresì, sembrano allontanarsi, almeno in parte, dalla impostazione liberista che ne caratterizza l’economia anche in materia tecnologica, trattandosi, in prevalenza, di misure di sostegno delle imprese delle attività economiche domestiche. Tra le iniziative possono citarsi il National Artificial Intelligence Initiative Act del 2020 che promuove e sovvenziona gli sforzi di innovazione dell’IA nelle principali agenzie federali, per guidare la ricerca e lo sviluppo americani nella tecnologia dell’IA e sostenere l’uso della medesima tecnologia nell’apparato pubblico. Il successivo Blueprint for an AI Bill of Rights[58]del 2022, invece, ha introdotto una serie di principi guida e non vincolanti per lo sviluppo sicuro e protetto dell’IA. Negli Stati Uniti, la complessità insita nella forma di Stato federale ha reso difficile l’attuazione di una politica unificata sull’intelligenza artificiale e, ad oggi, non esiste una legge generale sull’IA ma, tra le iniziative più recenti e significative, può richiamarsi l’ordine esecutivo sullo “Sviluppo e uso sicuro, protetto e affidabile dell’IA”, emesso il 30 ottobre 2023[59] che, però, rappresenta comunque un atto programmatorio non vincolante.

Si denota, quindi, come la regolamentazione dell’IA negli Stati Uniti consista in varie iniziative anche a livello federale[60] che, però, non riconducono ad una strategia centralizzata, lasciando libertà quasi assoluta alle imprese che sviluppano questo tipo di software; tant’è che nei diversi documenti citati l’obiettivo generale è quello del mantenimento della posizione di leadership nel campo IA a livello globale[61].

Di pari passo con la politica di governance, i finanziamenti pubblici costituiscono uno dei mezzi principali statunitensi utilizzati per garantire uno sviluppo costante nel settore dell’IA tant’è che a partire dal 2015 si è avuto un notevole incremento degli stessi[62].

Il bilancio per l’anno fiscale 2025[63] ha introdotto un nuovo regime di investimenti strategici per scienza e tecnologia (S&T), facendo seguito all’Executive Order 13859[64], con il quale era stato richiesto un approccio standardizzato per tenere conto in modo accurato degli investimenti in ricerca e sviluppo nell’IA in tutto il governo federale, e nel quale si sintetizzava la strategia generale statunitense in materia con il «promuovere i progressi nella tecnologia e nell’innovazione, proteggendo al contempo la tecnologia, l’economia e la sicurezza nazionale americane per garantire che l’America continui a guidare il mondo nell’innovazione e che le scoperte scientifiche e tecnologiche vadano a beneficio di tutta l’America»[65].

La strategia statunitense conferma come gli investimenti, la programmazione degli interventi e la propensione al rischio per lo sviluppo tecnologico non siano prerogative del solo mercato privato ma, al contrario, siano conseguenza di un preventivo intervento pubblico. L’efficacia di quest’ultimo deriva non solo dal mero stanziamento di fondi e dalla creazione delle “condizioni giuste” per l’innovazione ma, soprattutto, dalla «capacità dello Stato di prefigurare lo spazio di opportunità, la volontà di impegnarsi nelle attività di ricerca più rischiose e dall’esito più incerto e la supervisione del processo di commercializzazione»[66]. Sono numerose le imprese fondate negli Stati Uniti che oggi ricoprono una posizione dominante (o monopolistica) nel mercato globale perché hanno promosso e sviluppato tecnologie di frontiera anche grazie all’intervento pubblico.

La politica interventista statunitense, quindi, si discosta molto da quella europea e fonda su un minore controllo in materia di sviluppo e commercializzazione dell’IA e un’incentivazione alla ricerca anche a livello pubblico. Tali scelte appaiono divergenti rispetto alle strategie unionali.

Innanzitutto, negli ultimi anni, a far data dalla crisi pandemica, la Commissione europea ha dato il via ad una politica di flessibilizzazione degli aiuti di Stato, con una visione programmatoria volta a favorire un nuovo intervento pubblico dinamico anche, e soprattutto, per la crescita del mercato tecnologico interno.

Tra le diverse iniziative, su tutte, deve segnalarsi la comunicazione n. 414/2022 della Commissione europea, con la quale sono stati fissati i nuovi orientamenti semplificatori in materia di concessione di aiuti di Stato a favore della ricerca, dello sviluppo e dell’innovazione[67]. Tali orientamenti prevedono che per la concessione degli aiuti debbano verificarsi determinate condizioni: l’effetto di incentivazione (l’impresa svolge attività ulteriori rispetto a quelle che essa non svolgerebbe o svolgerebbe in modo limitato qualora l’aiuto non vi fosse stato); rapporto di causa-effetto (l’attività di RSI deve aver luogo solo dopo la concessione dell’aiuto); sviluppo sia tangibile per il mercato (se il mercato da solo non fornisce uno sviluppo tangibile o è presente un fallimento di mercato, lo Stato può intervenire).

Sullo stesso filone si posiziona la modifica al Regolamento generale di esenzione per categoria[68] del 2023 con la quale è stato precisato che gli aiuti alla ricerca industriale in qualsiasi ambito industria e settore, possono essere esentati dall’obbligo di notifica, con la specificazione dell’IA tra le tecnologie compatibili con la concessione degli aiuti. Ciò, insieme alla comunicazione sulla strategia europea di sicurezza economica del 2023[69], che punta alla promozione della base economica e della competitività nel mercato europeo, e alle raccomandazioni sui settori tecnologici critici per la sicurezza economica[70], tra cui l’intelligenza artificiale, rappresentano alcune delle iniziative di promozione dello sviluppo dell’IA nel mercato europeo.

In tal modo, gli stati e la stessa Unione Europea divengono soggetti promotori dell’innovazione tecnologica, anche individuata quale «fattore di rivalutazione della costituzione economica»[71], ma facendo leva sugli aiuti di Stato che, però, sembrano essere sempre più incentivi e meno aiuti, lontani dalle disposizioni (rimaste immutate) dell’art. 107 TFUE che, tuttavia, almeno in taluni aiuti di carattere orizzontale, sembra aprire nuovi spazi di regolazione materiale in chiave di flessibilizzazione, consentendo, di fatto, una maggiore “apertura” verso la concessione di incentivi pubblici.

4. Abdicare alla sovranità digitale? De iure condendo: un’analisi preliminare del Ddl Intelligenza Artificiale

Il Disegno di Legge 1146/2024 “Disposizioni e delega al Governo in materia di intelligenza artificiale”[72], rappresenta l’iniziativa dell’esecutivo italiano di regolare l’I.A. a livello nazionale. Seppure sia ancora in fieri (attualmente tornato in Senato per la terza lettura), un’analisi preliminare del suo contenuto consente di osservare l’orientamento pubblico allo sviluppo del mercato non solo dell’I.A. ma anche tecnologico e digitale italiano.

Preliminarmente deve richiamarsi il parere reso dalla Commissione europea[73] in merito al contenuto dell’iniziativa italiana. Nel documento, che segue un approccio di tipo “demolitorio”, sono sollevate diverse questioni critiche in merito al Disegno di Legge, quali, ad esempio, una mancanza di coerenza nelle definizioni e nei riferimenti all’AI Act, delle limitazioni proposte per sistemi di IA non considerati ad “alto rischio” e la possibilità che sopravvengano due sistemi normativi distinti (italiano ed europeo) che potrebbero danneggiare l’approccio europeo sul coordinamento normativo[74].

Ad esempio, l’originario art. 15 (già art. 14) del Ddl[75] presentato dal Governo al Senato si poneva quasi come un limite invalicabile rispetto a futuri applicativi delle II.AA. nel sistema giudiziario[76] poiché prevedeva che i sistemi dovessero essere «utilizzati esclusivamente per l’organizzazione e la semplificazione del lavoro giudiziario nonché per la ricerca giurisprudenziale e dottrinale». Tale scelta, seppure ancora provvisoria, appariva essere asincrona sia rispetto alle risorse stanziate attraverso il PNRR per lo sviluppo di sistemi avanzati da impiegare negli uffici giudiziari[77], che vanno ben oltre la semplificazione del lavoro dei giudici e permettere anche un’integrazione più profonda nell’intero sistema, ben lungi da quanto previsto originariamente dal Ddl. Tant’è che sul punto, nel proprio parere, la Commissione invitava ad un allineamento della disposizione all’art. 6, par. 3, dell’AI Act, nel quale non viene esclusa la possibilità di utilizzare sistemi di IA “ad alto rischio” purché non presentino un rischio significativo di danno per la salute, la sicurezza o i diritti fondamentali delle persone fisiche, o non influenzano materialmente il risultato del processo decisionale.

In tal senso, gli emendamenti formulati in prima lettura dal Senato[78] hanno radicalmente modificato il summenzionato articolo, ampliandone notevolmente le maglie e ponendo dei vincoli non tanto in merito agli ambiti di impiego dell’I.A. quanto all’indipendenza decisionale e interpretativa dei magistrati che si specifica essere in ogni caso riservata ad essi (art. 15, c. 1) e alla portata regolatoria del Ministero della Giustizia, che dovrà disciplinare gli impieghi dei sistemi per «l’organizzazione dei servizi relativi alla giustizia, per la semplificazione del lavoro giudiziario e per le attività amministrative accessorie» (art. 15, c. 2).

Il parere della Commissione e la prima lettura in Senato hanno permesso di evidenziare i limiti della formulazione dell’Esecutivo del Disegno di Legge non solo in materia di giustizia, ma anche negli altri ambiti trattati (sanità in primis), come anche l’assenza di riferimenti al Regolamento (UE) 2024/1689 poiché all’epoca quest’ultimo non era stato ancora approvato.

Ma vi è di più.

Taluni emendamenti in prima e seconda lettura alla Camera[79] sollevano interessanti questioni in merito al rapporto tra regolazione, programmazione[80] economica e sovranità digitale[81] che coinvolgono anche il mercato degli appalti tecnologici.

Difatti, nella sua attuale formulazione, il Ddl prevede all’art. 5, c. 1, lett. d) (che reca i “Princìpi in materia di sviluppo economico”), in una formulazione positiva non oggetto di modifiche in seconda lettura alla Camera, che lo Stato e le altre autorità pubbliche «indirizzano le piattaforme di e-procurement delle amministrazioni pubbliche […] nella scelta dei fornitori di sistemi e di modelli di intelligenza artificiale» privilegiando «quelle soluzioni che garantiscono la localizzazione e l’elaborazione dei dati strategici presso data center posti nel territorio nazionale» e ciò vale anche per le procedure di disaster recovery e business continuity di tali soluzioni, «nonché modelli in grado di assicurare elevati standard in termini di sicurezza e trasparenza nelle modalità di addestramento e di sviluppo di applicazioni basate sull’intelligenza artificiale generativa».

L’art. 5, c. 1, però, è rimasto l’ultimo baluardo del Disegno di legge a garanzia dell’ubicazione sul territorio nazionale dell’hardware per i sistemi, atteso che l’art. 6 (Disposizioni in materia di sicurezza e difesa nazionale), c. 1, il quale recava l’obbligo senza deroghe che i sistemi di I.A. destinati all’uso in ambito pubblico dovessero essere «installati su server ubicati nel territorio nazionale, al fine di garantire la sovranità e la sicurezza dei dati sensibili dei cittadini», è stato soppresso.

Invero, appare ictu oculi come vi fosse un’incompatibilità tra i due articoli, non potendosi prevedere per i sistemi ad uso pubblico un obbligo territoriale (art. 6, c. 1) ed un principio di preferenza (art. 5, c. 1) atteso che il primo prevale sul secondo. Altresì, il disposto dell’art. 6 imponeva delle restrizioni confliggenti con il tessuto tecno-imprenditoriale italiano che risulta essere sottosviluppato. Sul punto, infatti, sia gli investimenti pubblici sia quelli privati in materia di I.A. in Italia sono di molto inferiori[82] anche rispetto ad altri paesi europei (Francia e Germania su tutti), denotando una programmazione economica poco incentivante per lo sviluppo interno di tale tecnologia. Pertanto, si rileva come la formulazione dell’art. 6, c. 1, fosse troppo vincolante per le amministrazioni, con il rischio di avere un effetto contrario rispetto all’obiettivo e frenare la sperimentazione e l’impiego dell’I.A. nel settore pubblico poiché le imprese che avrebbero potuto partecipare sarebbero state limitate.

Più che abdicare alla sovranità digitale, la soppressione dell’art. 6, c. 1, rispecchia il mercato italiano dell’I.A., attualmente non in grado di competere neanche a livello europeo. Sta di fatto, però, che nelle gare ad evidenza pubblica per la fornitura di sistemi di I.A., si osserverà l’introduzione di criteri di preferenza territoriale che, in via meramente teorica, dovrebbero stimolare le imprese che rispettano i requisiti, a sviluppare sistemi adatti all’impiego pubblico, promuovendo una crescita del mercato locale.

Proprio al fine di (rectius: tentare di) colmare la lacuna del mercato italiano, l’art. 23 (Investimenti nei settori dell’intelligenza artificiale, della cybersicurezza e del calcolo quantistico), prevede la possibilità “di supportare lo sviluppo di imprese operanti nei settori del l’intelligenza artificiale […]” attraverso Invitalia, “fino all’ammontare complessivo di un miliardo di euro, l’investimento, sotto forma di equity e quasi equity, nel capitale di rischio” di imprese aventi sede in Italia con elevato potenziale di sviluppo e innovative attraverso il Fondo di sostegno al venture capital[83]. Le conseguenze di tale scelta, però, potranno osservarsi solo nel lungo termine.

5. Alcune riflessioni conclusive

La prospettiva giuridico-economica che l’Unione sta implementando, almeno a partire dalla fase neoprogrammatoria, nei confronti degli aiuti di Stato volti ad incentivare lo sviluppo tecnologico, sembra similare a quella statunitense ma confligge con le scelte di regolazione contenute nell’AI Act.

Il Regolamento europeo rappresenta un atto dovuto e necessario per garantire la tutela del mercato e, soprattutto, dei diritti fondamentali, ma non consente una totale libertà di ricerca e sviluppo così come garantita negli Stati Uniti. Pertanto, l’approccio basato sul rischio e, in particolare, il divieto di commercializzare determinati sistemi di IA non sarebbe compatibile con il regime di aiuti rivolti alla ricerca e allo sviluppo della tecnologia in esame.

Appare, quindi, contraddittorio il rapporto tra AI Act e la flessibilizzazione degli aiuti di Stato che sta caratterizzando le politiche europee in materia. La regolamentazione «prudente» della tecnologia e una semplificazione della normativa in materia di aiuti non sembrano seguire un piano coordinato che, allo stato attuale, consente di osservare una evidente contraddizione. Da un lato, una deminutio delle possibilità di ricerca e sviluppo derivante dall’articolazione e dai vincoli del Regolamento e dall’altro, vivaci iniziative di incentivazione economica in materia tecnologica per rafforzare la posizione europea nel mercato globale.

Sotto taluni profili, peraltro, non può omettersi di rilevare come in futuro possano emergere notevoli contrasti normativi. Si pensi, a titolo esemplificativo, alla ipotesi in cui venga concesso un aiuto per lo sviluppo di un sistema di IA che, durante la lavorazione, proprio a causa del c.d. cambiamento tecnologico viene poi riconosciuto dalla Commissione come un sistema a rischio inaccettabile. Ciò vanificherebbe lo sforzo della ricerca e, soprattutto, lo sforzo economico statale con il quale si è contribuito allo sviluppo[84].

Pertanto, appare evidente come ove un’impresa individua i sistemi di IA sui quali investire, potrebbe riservarsi di evitare i campi già vietati ex ante dal Regolamento e la scelta ricadrebbe su sistemi dalla commercializzazione più sicura, ovvero in un “de-AI-ing” dei sistemi già sviluppati al fine di garantirne la commercializzazione e il conseguente profitto, a discapito della ricerca scientifica che costituisce forse l’unico mezzo per la corsa alle tecnologie di frontiera.

Non solo, è possibile anche che la struttura dell’AI Act possa limitare lo spillover tecnologico di cui può beneficiare il mercato europeo, a causa della disincentivazione delle aziende extraeuropee a non importare i propri prodotti perché il regolamento è troppo stringente e il rapporto costi/benefici potrebbe non essere tale da giustificare una modifica software che lo renda compatibile con il mercato interno[85].

Conclusivamente, se è vero che governare l’IA è una questione di equilibrio e di ritmo, otre che di intensità regolatoria, nel caso europeo, però, da un lato non sembra essere presente un equilibrio tra regolazione e promozione della tecnologia perché l’ago della bilancia tende a favore del primo[86]; d’altro canto, invece, sembra esservi un certo “ritmo”, poiché l’AI Act è entrato in vigore in un momento storico nel quale la tecnologia è ancora in divenire e la sua commercializzazione è in grado di essere controllata in maniera più semplice.

Oggi, in un contesto in cui i prodotti disponibili si basano esclusivamente su IA deboli (weak A.I.) – sistemi progettati per svolgere compiti specifici senza capacità di pensiero o azione autonoma -, il divieto aprioristico imposto dal Regolamento su talune tipologie di IA rischia di frenare prematuramente e compromettere la competitività europea nel mercato globale[87].

Proprio la leadership, inoltre, sembra essere indissolubilmente legata proprio all’intensità regolatoria che, se troppo profonda potrebbe allontanare eccessivamente l’industria privata dagli obiettivi di sovranità digitale (globale) che caratterizzano tutte le più recenti iniziative europee e, se troppo mite, potrebbe, invero, ingenerare un allentamento della proiezione europea volta a rafforzare le imprese nella competizione globale sui sistemi di intelligenza artificiale prodotti nei mercati extra UE.

 

[1] Tra le diverse definizioni, quella fornita da McKinsey Global Institute, J. Manyika, M. Chui, J. Bughin, R. Dobbs, P. Bisson, A. Marrs, Disruptive technologies: Advances that will transform life, business, and the global economy, Maggio 2013, risulta essere quella che meglio inquadra il concetto di tecnologia di frontiera.

[2] Che è necessario distinguere dagli algoritmi che sono, invece, «uno strumento per l’intelligenza artificiale, ma non è intelligenza artificiale» (così M. Sepe, Innovazione tecnologica, algoritmi e Intelligenza Artificiale, in Riv. trim. Dir. ec., suppl. al n. 3, 2021, 204-205).

[3] Così S. Mattarella, Messaggio di Fine Anno del Presidente della Repubblica Sergio Mattarella, in quirinale.it, 31 dicembre 2023.

[4] Per una definizione puntuale di Intelligenza Artificiale si rinvia all’AI Act (Regolamento (Ue) 2024/1689 del Parlamento Europeo e del Consiglio del 13 giugno 2024 che stabilisce regole armonizzate sull’intelligenza artificiale e modifica i regolamenti (CE) n, 300/2008, (UE) n, 167/2013, (UE) n, 168/2013, (UE) 2018/858, (UE) 2018/1139 e (UE) 2019/2144 e le direttive 2014/90/UE, (UE) 2016/797 e (UE) 2020/1828 (regolamento sull’intelligenza artificiale), art. 3, punto 1) che la identifica quale «un sistema automatizzato progettato per funzionare con livelli di autonomia variabili e che può presentare adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dall’input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali». Tale definizione, seppure sia stato spesso evidenziato come non ne esista una univoca (cfr. ex multis S.J. Russell, P. Norvig, e E. Davis, Artificial Intelligence: A Modern Approach, 4° ed., Londra, 2016; S. Bringsjord, N.S. Govindarajulu, voce Artificial Intelligence, in The Stanford Encyclopedia of Philosophy, Stanford, 2020; J. Turner, Robot Rules. Regulating Artificial Intelligence, Londra, 2019, 7 ss.; F. Donati, Intelligenza Artificiale e giustizia, in Rivista AIC, n. 1, 2020, 415; M. U. Sherer, Regulating Artificial Intelligence Systems: Risks, Challenges, Competencies and Strategies, in Harvard Journal of Law & Technology, 2, 2016, 359; C. Casonato, Intelligenza artificiale e diritto costituzionale: prime considerazioni, in Diritto pubblico comparato ed europeo, 2019, 102; A. D’Aloia, Il diritto verso “il mondo nuovo”. Le sfide dell’Intelligenza Artificiale, in Rivista di BioDiritto, 1, 2019, 8; F. Raso, H. Hilligoss, V. Krishnamurthy, C. Bavitz e L.Y. Levin, Artificial Intelligence & Human Rights: Opportunities and Risks, Harvard, 2018; E. Rich, K. Knight, Artificial Intelligence, New York, 1991), riesce comunque a fornire un’identità completa della tecnologia in esame.

[5] Directorate-General for External Policies – Policy Department (European Parliament, Current and Emerging Trends in Disruptive Technologies: Implications for the Present and Future of EU’s Trade Policy, Bruxelles, 2017, 2).

[6] J. Schumpeter, Capitalism, Socialism, and Democracy, VI ed., Londra, 2003, 81 e ss.

[7] Sul punto v. F. Capriglione, Diritto ed economia. La sfida dell’intelligenza artificiale, in Riv. Trim. Dir. Ec., n. 3, suppl., 2021, 33.

[8] Sul punto cfr. W.S. McCulloch. W. Pitts, A logical calculus of the ideas immanent in nervous activity. Bulletin of Mathematical Biophysics, n. 5, 1943, 115-133, dove gli AA. proposero il primo modello matematico di rete neurale. Successivamente, cfr. A.M. Turing, Computing Machinery and Intelligence, Mind, 1950. Si ritiene che la nascita della materia di studio sull’Intelligenza Artificiale sia avvenuta nel 1956 al Dartmouth College, università statunitense situata ad Hanover grazie all’iniziativa di McCarthy (sul punto cfr. D. Crevier, Ai: The Tumultuous history Of The Search For Artificial Intelligence, New York, 1993, 48-50; H. Haenlein, A. Kaplan, A brief history of artificial intelligence: On the past, present, and future of artificial intelligence, in California Management Review, 2019; si rinvia anche a P. Mariani, D. Tiscornia (a cura di), Sistemi esperti giuridici. L’intelligenza artificiale applicata al diritto, Milano, 1989, 34).

[9] Il termine “Intelligenza Artificiale”, però, fu coniato solo nel 1955 (J. Mccarthy et al., A Proposal for the Darmouth Summer Research Project on Artificial Intelligence, 31 agosto 1955, 2, consultabile all’indirizzo http://jmc.stanford.edu/articles/dartmouth/dartmouth.pdf) e «la sfida che si posero gli scienziati con l’IA era di riuscire a costruire un cervello che oltre ad avere un software duttile avesse anche un hardware implementabile a piacere […] in altri termini, immaginarono di poter creare ciò che oggi chiamiamo un’Intelligenza Artificiale (IA), con l’obiettivo ultimo di simulare, e possibilmente superare, il funzionamento del cervello umano» (così G. Maira, Intelligenza umana e intelligenza artificiale, in federalismi.it, n. 7, 2021, 7). Sul punto è interessante osservare anche come, in quegli anni, si sia sviluppato un filone di ricerca e sperimentazione sull’impiego della tecnologia in ambito giudiziario, dall’automazione della giustizia alla sperimentazione di strumenti di ausilio per i giudicanti e gli avvocati, sino ad arrivare ad ipotesi di giustizia predittiva, teoricamente impensabile per quegli anni (cfr. ex multis A. Harris, Judicial Decision Making and Computers, in Vill. L. Rev., 12, 1967, 272; R. Lawlor, Forum: Computers and Automation in Law, in Cal. B.J., n. 40, 1965, 30 ss.; C. Hayden, How Electronic Computers Work: A Lawyer Looks Inside the New Machines, in Modern Uses of Logic in Law, n. 62, 112 ss.; C. Morris, Hospital Computers in Court, in Modern Uses of Logic in Law, n. 4, 61 ss.; D. Hensley, Punched Cards Produce Progress in Probate Court, in A.B.A.J., n. 48, 1962, 138; E. Adams, EDP Aid to the Courts, in Proceedings of the Conference on Edp Systems for State and Local Governments, 1964; A. Ellenbogen, Automation in the Courts, in A.B.A.J., 1964, 655 ss.; J. Spangenberg, G. Neumann, Data Processing: A Modern Tool to Help Improve Judicial Administration, in Mass. L.Q., n. 50, 1965; J. Davis, Automatic Data Processing and the Judge Advocate General’s Corps, in Military L. Rev., n. 23, 1964).

[10] Il valore economico (G. Luchena, S. Cavaliere, Il riutilizzo dei dati pubblici come risorsa economica: problemi e prospettive, in Rivista giuridica del Mezzogiorno, n. 1, 2020, 151-169) e sociale dei dati è aumentato in maniera esponenziale. A evidenziare l’importanza dei dati è proprio il legislatore, principalmente quello europeo, che negli ultimi anni ha dato il via a numerose iniziative (Regulation (Eu) 2023/2854 of the European Parliament and of the Council of 13 December 2023 on harmonised rules on fair access to and use of data and amending Regulation (EU) 2017/2394 and Directive (EU) 2020/1828 (Data Act) volte, soprattutto, alla protezione dei dati (personali e non), alla loro tracciabilità e al loro sfruttamento per fini commerciali (V. Falce, Strategia dei dati. Traiettorie orizzontali e applicazioni verticali, in V. Falce (a cura di), Strategia dei dati e intelligenza artificiale. Verso un nuovo ordine giuridico del mercato, Torino, 2023, 5 e S. Landini, Circolazione dei dati, data analytics e tool di intelligenza artificiale nel settore assicurativo, in V. Falce, U. Morera (a cura di), Dall’open banking all’open finance. Profili di diritto dell’economia, Torino, 2024, 95 ss); ciò si è esteso, ad esempio, anche al settore assicurativo (S. Landini, Circolazione dei dati, data analytics e tool di intelligenza artificiale nel settore assicurativo, in Analisi Giuridica dell’Economia, fasc. 1, giugno 2025, 319 ss.).

[11] C. Böhm, R. Noll, C. Plant, B. Wackersreuther, A. Zherdin, Data Mining Using Graphics Processing Units, in Computer Science, vol. 5740, Berlino, 2009.

[12] In merito è stato osservato che «l’innovazione tecnologica digitale, in particolare quella legata agli sviluppi dell’intelligenza artificiale, segue una traiettoria esponenziale» (così M. Sepe, Innovazione digitale, tra rischi di deriva algocratica e possibili rimedi, in Rivista trimestrale di diritto dell’economia, supplemento al n. 4, 2023, 237).

[13] F. Pasquale, The black box society: the secret algorithms that control money and information, Cambridge, Mass. - London, 2015; Y. Bathaee, The Artificial Intelligence black box and the failure of intent and causation, in Harvard Journal of Law & Technology, vol. 31, 2018, 906; C. Rudin, Stop explaining black box machine learning models for high stakes decisions and use interpretable models instead, in Nature Machine Intelligence, n. 1, 2019, 215.

[14] Cfr. ex multis S. Tommasi, Algoritmi e nuove forme di discriminazione: uno sguardo al diritto europeo, in Revista de Direito Brasileira, n. 10, 2020, spec. 114 ss.; P. Zuddas, Intelligenza artificiale e discriminazioni, in Consulta online, 2020; M. Galeotti, Discriminazioni e algoritmi. Incontri e scontri tra diverse idee di fairness, in The Lab’s Quarterly, n. 4, 2018, 73 ss.; T.Z. Zarsky, An analytic challenge: discrimination theory in the age of predictive analytics, in I/S: A Journal of Law and Policy for the Information Society, n. 14, 2017, 12.

[15] B. Friedman, H. Nissenbaum, Bias in Computer Systems, in ACM Transactions on Information Systems, n. 14, 1996, spec. 332.

[16] O anche discriminazioni indirette (cfr. A. Prince, D.B. Schwarcz, Proxy Discrimination in the Age of Artificial Intelligence and Big Data, in Iowa Law Review, n. 1257, 2020; L. Alexander, K. Cole, Discrimination by Proxy, in Constitutional Commentary, vol. 14, 1997, 453 ss.).

[17] G. Marchant, Addressing the Pacing Problem, in G. Marchant et al. (eds), The Growing Gap Between Emerging Technologies and Legal-Ethical Oversight: The Pacing Problem, Springer Netherlands, 2011.

[18] M. Papazoglou, J. Torrecillas Jodar, M. Cardona, E. Calza, M. Vazquez-Prada Baillet, R. Righi, Mapping EU level funding instruments to Digital Decade targets. Application to main digital instruments in 2014-2027, in M. Lopez Cobo, G. De Prato (a cura di), Mapping EU level funding instruments to Digital Decade targets. Application to main digital instruments in 2014-2027, Publications Office of the European Union, Luxembourg, 2023.

[19] Riconosciuta come una «situazion(e) di più complessa sistemazione […] nelle sue diverse modalità applicative incidenti sul campo economico» (G. Luchena, Orizzonti del Diritto dell’economia: un’introduzione. Oggetto, metodo, dottrine, in Riv. trim Dir. ec., n. 4, 2023, 428).

[20] Così M. Pellegrini, L’intelligenza artificiale nell’organizzazione bancaria: quali sfide per il regolatore?, in Riv. trim Dir. ec., n. 3, 2021, 431.

[21] N. Abriani, G. Schneider, Diritto delle imprese e intelligenza artificiale Dalla Fintech alla Corptech, Bologna, 2021, 19.

[22] Cfr. G. Finocchiaro, Intelligenza artificiale. Quali regole?, Bologna, 2024, 107 ss.

[23] N. Abriani, G. Schneider, op. cit., 20. Per un approfondimento sulle convergenze e divergenze tra le iniziative regolatorie degli Stati Uniti, della Cina e dell’Europa cfr. A. Stiano, La «corsa» alla regolamentazione dell’intelligenza artificiale: una riflessione in chiave comparata, in DPCE, n. 1, 2025, 97-116; J. Hilman, Smart Regula tion: Lessons from thr Artificial Intelligence Act, in Emory International Law Review, n. 37, 2023, 775; M. Hervey, M. Lavy (a cura di), The Law of Artificial Intelligence, 2° ed., Londra, 2024; J. van den Hoven, G. Pozzi, M. Stauch, I. Lishchuk, F. Musiani, et al., The European Approach to Artificial Intelligence across Geo-political Models of Digital Governance, 2024, https://shs.hal.science/halshs-04696710v1; A. Bradford, Digital Empires The Global Battle to Regulate Technology, Oxford, 2023 e E. Chiti, B. Marchetti, Divergenti? Le strategie di Unione europea e Stati Uniti in materia di intelligenza artificiale, in Rivista della regolazione dei mercati, n. 1, 2020.

[24] A. Bradford, cit., spec. 105 ss.

[25]A. Poggi, Soft law nell’ordinamento comunitario, in Annuario 2005. L’integrazione dei sistemi costituzionali europeo e nazionali. Atti del XX Convegno Annuale. Catania, 14-15 ottobre 2005, Padova, 2007, 369 ss. e L. Senden, Soft Law in European Community Law, Oxford, 2004, 478 ss. Quello della soft law viene ritenuto un «sistema affidabile di enforcement in assenza del quale (i nuovi diritti sostanziali e procedurali legati all’impiego delle nuove tecnologie) resterebbero soltanto delle prescrizioni senza alcuna pretesa di vincolatività» (così A. Pajno, M. Bassini, G. De Gregorio, M. Macchia, F. Patti, O. Pollicino, S. Quattrocolo, D. Simeoli, P. Sirena, AI: profili giuridici – Intelligenza Artificiale: criticità emergenti e sfide per il giurista, in Rivista di Biodiritto, vol. 3, 2019, 210-211).

[26]Nel 2017 il Consiglio europeo ha posto in evidenza la necessità «di far fronte alle tendenze emergenti» tra cui «questioni quali l’intelligenza artificiale» (Consiglio europeo, Riunione del Consiglio europeo (19 ottobre 2017) – Conlusioni, EUCO 14/17, 2017, 8).

[27] Gazzetta Ufficiale U.E., P8TA(2017)0051, Norme di diritto civile sulla robotica, Risoluzione del Parlamento europeo del 16 febbraio 2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica (2015/2103(INL) (2018/C 252/25), 18 luglio 2018.Tra le iniziative precedenti può richiamarsi CEPEJ, The CEPEJ European Ethical Charter on the use of artificial intelligence (AI) in judicial systems and their environment. Presentation note, 2018 (in merito cfr. ex multis, F.C. Gastaldo, Lo statuto della giustizia digitale nella carta etica della CEPEJ, in iusinitinere.it, 2 aprile 2021; C. Barbaro, Uso dell’intelligenza artificiale nei sistemi giudiziari: verso la definizione di principi etici condivisi a livello europeo?, in Questione giustizia, n. 4, 2018; S. Quattrocolo, Intelligenza artificiale e giustizia: nella cornice della Carta etica europea, gli spunti per un’urgente discussione tra scienze penali e informatiche, in Legislazione Penale, 2018). Le iniziative successive sono, invece, state molto più numerose: le “Ethics Guidelines for Trustworthy Artificial Intelligence”, hanno rappresentato il primo passo per uno sviluppo uniforme dell’IA in Europa (N.A. Smuha, The EU Approach to Ethics Guidelines for Trustworthy Artificial Intelligence, in Computer Law Review International, vol. 20, 2019, 97-106). Successivamente, con il White Paper on Artificial Intelligence – A European approach to excellence and trust, sono state avanzate le prime ipotesi di regolamentazione per lo sviluppo dell’IA per tutti gli ambiti applicativi (pubblici, economici e privati) e sull’adattabilità della normativa vigente all’epoca per far fronte ai rischi derivanti dall’impiego dei sistemi di IA. Ex multis possono richiamarsi anche: Commissione europea, Plasmare il futuro digitale dell’Europa, COM(2020) 67 final, 19 febbraio 2020 e Commissione Europea, Bussola per il digitale 2030: il modello europeo per il decennio digitale, COM(2021) 118 final, 9 marzo 2021; Risoluzione del Parlamento europeo del 20 ottobre 2020 recante raccomandazioni alla Commissione concernenti il quadro relativo agli aspetti etici dell’intelligenza artificiale, della robotica e delle tecnologie correlate, 2020/2012(INL); Risoluzione del Parlamento europeo del 20 ottobre 2020 recante raccomandazioni alla Commissione su un regime di responsabilità civile per l’intelligenza artificiale, 2020/2014(INL); Risoluzione del Parlamento europeo del 20 ottobre 2020 sui diritti di proprietà intellettuale per lo sviluppo di tecnologie di intelligenza artificiale, 2020/2015(INI); Progetto di relazione del Parlamento europeo sull’intelligenza artificiale nel diritto penale e il suo utilizzo da parte delle autorità di polizia e giudiziarie in ambito penale, 2020/2016(INI); Piano d’azione per l’istruzione digitale 2021-2027 – Ripensare l’istruzione e la formazione per l’era digitale, COM(2020)624 final, 30 settembre 2020).

[28] Id., punto Q.

[29]Commissione Europea, Proposta di Regolamento del Parlamento Europeo e del Consiglio che stabilisce regole armonizzate sull’Intelligenza Artificiale (Legge sull’Intelligenza Artificiale) e modifica di alcuni atti legislativi dell’Unione, COM(2021) 206 final, 21 aprile 2021, iniziativa già anticipata nel 2019 dalla presidente Von Der Leyen (in U. Von Der Leyen, Orientamenti politici per la prossima Commissione europea 2019 – 2024, 2019, 14-15). In merito si cfr. ex multis D. Di Sabato, G. Alfano, L’impiego dell’IA per condizionare e valutare le persone tra limitazioni e divieti: qualche considerazione critica sulla proposta di Regolamento sull’IA elaborata dalla Commissione europea, in Rivista di diritto dell’impresa, n. 2, 2022, 281 e ss.; V. Lemma, Intelligenza Artificiale e sistemi di controllo: quali prospettive regolamentari?, in Rivista Trimestrale di Diritto dell’Economia, supplemento al n. 3, 2021, 319 ss.; C. Casonato, B. Marchetti, Prime osservazioni sulla proposta di regolamento dell’Unione europea in materia di intelligenza artificiale, in BioLaw Journal, n. 3, 2021; G. Di Rosa, Quali regole per i sistemi automatizzati intelligenti?, in Riv. Dir. Civ., n. 5, 2021, 823 ss.; L. Floridi, The European Legislation on AI: a Brief Analysis of its Philosophical Approach, in Philosophy & Technology, n. 34, 2021, 215–222.

[30] Pubblicata il 12 luglio con il numero 2024/1689.

[31] La proposta di regolamento, oltre che una presa d’atto di tutti i rilievi sollevati in precedenza dalla stessa Unione Europea, è anche il risultato della consultazione pubblica dei portatori di interesse del settore pubblico e privato (compresi governi e autorità locali) che stata avviata congiuntamente alla pubblicazione del Libro bianco sull’intelligenza artificiale (19 febbraio 2020), ed è terminata in data 14 giugno 2020. Attraverso questa consultazione l’Unione ha raccolto osservazioni e pareri sul Libro bianco per un totale di 1215 contributi attraverso i quali si è avuta una risposta pressoché univoca sulla necessità di dover colmare le lacune legislative e di adottare una normativa nuova e, al contempo, è stato posto in evidenza il bisogno di una regolamentazione semplice e proporzionata coadiuvata da una definizione precisa e restrittiva del concetto di intelligenza artificiale distinguendole a seconda della pericolosità (“rischio”) (cfr. Shaping Europe’s digital future, Consultation results 17 July 2020, White Paper on Artificial Intelligence: Public consultation towards a European approach for excellence and trust, reperibile all’indirizzo https://wayback.archive-it.org/12090/20210304034028/https://ec.europa.eu/digital-single-market/en/news/white-paper-artificial-intelligence-public-consultation-towards-european-approach-excellence).

[32] Come stabilito in Consiglio europeo, Riunione straordinaria del Consiglio europeo (1 e 2 ottobre 2020) – Conclusioni, 2020, 6, e in Parlamento europeo, Quadro relativo agli aspetti etici dell’intelligenza artificiale, della robotica e delle tecnologie correlate, P9_TA(2020)0275, 2020, pubblicato in GUUE, C 404/63, 6 ottobre 2021. Altresì, si punta alla riduzione della frammentazione normativa, motivo per cui è prevista anche l’istituzione di un apposito comitato europeo per l’Intelligenza Artificiale che favorisca il coordinamento tra Stati e Unione (v. J. Andraško, M. Mesarčík, O. Hamuľák, The regulatory intersections between artificial intelligence, data protection and cyber security: challenges and opportunities for the EU legal framework, in AI and Society, n. 36, 2021, 623 ss.). Sul punto si è rilevato come il Regolamento tenti di presentarsi come “preciso e elastico” così da affrontare al meglio la capacità evolutiva dei sistemi di IA. Per poter rimanere al passo, la Commissione (art. 4) punta a rafforzare la propria posizione con la possibilità di adottare atti delegati per aggiornare e modificare il contenuto dell’Allegato I per seguire l’andamento dello sviluppo dei prodotti di IA così da evitare che la lentezza del processo legislativo «diventi freno all’evoluzione della tecnologia e del suo uso all’interno del territorio dell’Unione, mettendo così a rischio la capacitò competitiva stessa dell’Unione a livello globale» (così testualmente F. Pizzetti, La proposta di Regolamento sull’IA della Commissione Europea presentata il 21.4.2021 (COM (2021) 206 final) tra Mercato Unico e competizione digitale globale, in Diritto di Internet, n. 4, 2021, 594-595).

[33] G. De Gregorio, P. Dunn, The European risk-based approaches: Connecting constitutional dots in the digital age, in Common Market Law Review, vol. 59(2), 2022, 473 ss.

[34] Si consideri, a titolo esemplificativo, che la Directive on Automated Decision Making in vigore in Canada dal 2019 (e costantemente sottoposta ad aggiornamento obbligatorio semestrale) prevede, tra i requisiti che devono essere posseduti da un sistema di IA, che venga garantita una spiegazione (comprensibile) agli individui investiti da una decisione ottenuta in maniera automatizzata (punto 6.2 “Trasparency” della Directive on Automated Decision Making, aggiornata al 1.04.2021 e consultabile all’indirizzo https://www.tbs-sct.gc.ca/pol/doc-eng.aspx?id=32592).

[35] «Un sistema di IA di cui all’allegato III non è considerato ad alto rischio se non presenta un rischio significativo di danno per la salute, la sicurezza o i diritti fondamentali delle persone fisiche, anche nel senso di non influenzare materialmente il risultato del processo decisionale» (art. 6, c. 3, AI Act).

[36]K. Garnett, D. J Parsons, Multi-Case Review of the Application of the Precautionary Principle in European Union Law and Case Law, in Risk Analysis, n. 37,2017, 502.

[37] Testualmente E. Chiti, B. Marchetti, Divergenti?, cit., 31 e 33. Gli Autori hanno altresì evidenziato come l’intervento legislativo posto in essere dalla Commissione rispecchi la politica industriale europea anche in un’ottica di innovazione tecnologica sostenibile.

[38] La possibilità di poter utilizzare l’IA in innumerevoli settori potrebbe avvicinarla a quella che è stata definita una «crisi multidimensionale» (E. Chiti, B. Marchetti, o.l.c., 4) così come lo è stata quella del 2008 (sul punto cfr. E. Chiti, A.J. Menéndez, P.G. Teixeira (a cura di), The European Rescue of the European Union? The Existential Crisis of the European Political Project, in Arena Report No 3/12 e Recon Report No. 19, 2012; J.H. Weiler, Europe in Crisis – On ‘Political Messianism’, ‘Legitimacy’ and the ‘Rule of Law’, in Singapore Journal of Legal Studies, 2012, 248 ss.; G. Majone, The Deeper Euro-Crisis or: The Collapse of the EU Political Culture of Total Optimism, in EUI Working Paper LAW, n. 10, 2015).

[39] Tale attenzione emergeva già prima della pubblicazione della proposta di Regolamento (cfr. F. Rodi, Gli interventi dell’Unione europea in materia di intelligenza artificiale e robotica: problemi e prospettive, in G. Alpa (a cura di), Diritto e intelligenza artificiale, Pisa, 2020, 187-210; L. Parona, Prospettive europee e internazionali di regolazione dell’intelligenza artificiale tra principi etici, soft law e self regulation, in Rivista della Regolazione dei Mercati, n. 1, 2020, 70 ss.; M. Zanichelli, Ecosistemi, opacità, autonomia: le sfide dell’intelligenza artificiale in alcune proposte recenti della Commissione europea, in  A. D’Aloia (a  cura  di), Intelligenza artificiale e diritto. Come regolare un mondo nuovo, Milano, 2020, 67-87; A. Adinolfi, L’Unione europea dinanzi allo sviluppo dell’intelligenza artificiale: la costruzione di uno schema di regolamentazione europeo tra mercato unico digitale e tutela dei diritti fondamentali, in S. Dorigo (a cura di), Il ragionamento giuridico nell’era dell’intelligenza artificiale, Pisa, 2020, 13 ss.; A. Amidei, La governance dell’intelligenza artificiale: profili e prospettive di diritto dell’Unione europea, in U. Ruffolo (a cura di), Intelligenza artificiale. Il diritto, i diritti, l’etica, Torino, 2020, 571 ss.; A. Celotto, Come regolare gli algoritmi. Il difficile bilanciamento fra scienza, etica e diritto, in Analisi Giuridica dell’Economia, n. 1, 2019, 47 ss.; G. Resta, Governare l’innovazione tecnologica: decisioni algoritmiche, diritti digitali e principio di uguaglianza, in Politica del Diritto, n. 2, 2019, 199 ss.; G. Proietti, Intelligenza artificiale: una prima analisi della proposta di regolamento europeo, in Diritto bancario, 2021; G. Di Rosa, Quali regole per i sistemi automatizzati?, in Riv. Dir. Civ., n. 5, 2021, 823; M. Craglia (a cura di), Artificial Intelligence – A European Perspective, Lussemburgo, 2018).

[40] Sul punto cfr. G. Lemme, La proposta di Regolamento europeo sulla intelligenza artificiale e la gestione dei rischi: una battaglia che può essere vinta?, in Rivista trimestrale di Diritto dell’economia, A. Canepa, G.L. Greco (a cura di), Liber amicorum Laura Ammannati, suppl. al n. 1, 2024, spec. 259.

[41] Commissione europea, Proposta di regolamento, cit., punto 5.2.2, 14.

[42] Come potrebbe essere l’applicazione del Regolamento sulla sicurezza generale dei prodotti (Regolamento (UE) 2023/988 del Parlamento europeo e del Consiglio del 10 maggio 2023 relativo alla sicurezza generale dei prodotti, che modifica il regolamento (UE) n. 1025/2012 del Parlamento europeo e del Consiglio e la direttiva (UE) 2020/1828 del Parlamento europeo e del Consiglio, e che abroga la direttiva 2001/95/CE del Parlamento europeo e del Consiglio e la direttiva 87/357/CEE del Consiglio (Testo rilevante ai fini del SEE) per le IA immessi sul mercato come beni di consumo.

[43] Entrambe le problematiche sono state sollevate da G. Contissa, F. Galli, F. Godano, G. Sartor, Il Regolamento Europeo sull’Intelligenza Artificiale. Analisi informatico-giuridica, in i-lex, vol. 14, fasc. 2, 2021, 32 e 33.

[44] C. Grieco, Sorveglianza e controllo. Il modello di governance nella nuova proposta di regolamento sull’IA, in i-lex, vol. 14, fasc. 2, 2021, 95-99.

[45] Comitato delle Regioni, 147ª Sessione Plenaria del CDR, 1.12.2021 – 2.12.2021. Parere del Comitato europeo delle regioni – Approccio europeo in materia di intelligenza artificiale – Legge sull’intelligenza artificiale, in Gazzetta ufficiale dell’Unione Europea C 97/60, 28 febbraio 2022, 2.

[46] Il “rischio medio” è stato poi rimosso nella versione definitiva del Regolamento.

[47] Parere del Comitato economico e sociale europeo sulla proposta di regolamento del Parlamento europeo e del Consiglio che stabilisce regole armonizzate sull’intelligenza artificiale (legge sull’intelligenza artificiale) e modifica alcuni atti legislativi dell’Unione, 2021/C 517/09, 2.

[48] Nel corpus di norme Europee applicabili e adattabili ai sistemi di IA possono citarsi, in maniera esemplificativa e non esaustiva, la Direttiva 2001/95/CE in materia di sicurezza dei prodotti e di responsabilità per danno da prodotti difettosi (che prevede norme specifiche volte a regolare diverse categorie di prodotti; la Direttiva 2000/43/CE sull’uguaglianza razziale; la direttiva 2000/78/CE sulla parità di trattamento in materia di occupazione e di condizioni di lavoro; le direttive 2004/113/CE e 2006/54/CE sulla parità di trattamento tra uomini e donne per quanto riguarda l’accesso a beni e servizi e in materia di occupazione; la direttiva 2005/29/CE sulle pratiche commerciali sleali; la direttiva 2011/83/CE sui diritti dei consumatori; il Regolamento 2016/679 sulla protezione dei dati personali e sulla privacy; la Direttiva (UE) 2016/680  sulla protezione dei dati nelle attività di polizia e giudiziarie (relativa alla protezione delle persone fisiche con riguardo al trattamento dei dati personali da parte delle autorità competenti a fini di prevenzione, indagine, accertamento e perseguimento di reati o esecuzione di sanzioni penali, nonché alla libera circolazione di tali dati) e la Direttiva (UE) 2019/882 sui requisiti di accessibilità dei prodotti e dei servizi.

[49] G. Malgieri, G. Comandé, Why a Right to Legibility of Automated Decision making Exists in the General Data Protection Regulation, in International Data Privacy Law, 2017, 243-265.

[50] Così tradotto M. Almada, N. Petit, The EU AI act: a medley of product safety and fundamental rights?, in Robert Schuman Centre for Advanced Studies Working Paper, n. 59, 2023, 11-12.

[51] Cfr. ex multis C. Slobogin, Preventive lustice: How Algorithms, Paro le Boards and Limiting Retributivism Could End Mass Incarceration, in Wake Forest L. Rev., n. 97, 2021; S. Zottola, S. Desmarais, E. Lowder, S. Duhart Clarke, Evaluating Fairness of Algorithmic Risk Assessment Instruments: The Problem With Forcing Dichotomies, in Criminal Justice and Behavior, n. 49, 2021; G. Vincent, J. Viljoen, Racist Algorithms or Systemic Problems? Risk Assessments and Racial Disparities, in Crim. & Behav., n. 47, 2020, 1576; J. Skeern, C. Lowenkamp, Using Algorithms to Address Trade-Offs Inherent in Predicting Recidivism, in Behav. Sci. & L., n. 259, 2020; T.H. Cohen, C. Lowenkamp, K. Bechtel e F.W. Flores, Risk Assessment Overrides: Shuffling the Risk Deck Without Any Improvements in Prediction, in Crim. Just., Sc Behav., n. 49, 2020, 1609; F. Basile, Intelligenza Artificiale e Diritto Penale: Quattro possibili percorsi di indagine, in Diritto Penale e Uomo – DPU, 29 settembre 2019; B. Garrett, J. Monahan, Judging Risk, in Calif. L. Rev., vol. 108, 2020, 439 e ss.; A. Natale, Introduzione. Una giustizia (im)prevedibile?, in Questione Giustizia, fasc. 4, 2018, 3 ss.; J. Dressel, H. Farid, The Accuracy, Fairness, and Limits Of Predicting Recidivism, in Sci. Advances, n. 4, 2018; J.M. Eaglin, Constructing Recidivism Risk, in Emory L. J., n. 67, 2017; G. Zara, Tra il probabile e il certo. La valutazione del rischio di violenza e di recidiva criminale, in Diritto penale contemporaneo, 20 maggio 2016; R. Berk, J. Hyatt, Machine learning Forecasts of Risk to Inform Sentencing Decisions, in Fed, Sent’g Rep., n. 27, 2015, 222 ss.; P.B. Imrey, A.P. Dawid, A Commentary on Statistical Assessment of Violence Recidivism Risk, in Stat. & Pub. Pol’y, vol. 2, 2015.

[52] In merito all’evoluzione e alle dinamiche del cambiamento tecnologico si rinvia a J. Mokyr, La leva della ricchezza. Creatività tecnologica e progresso economico, Bologna, 1995, spec. 375 ss.

[53] S. Hooker, The Hardware Lottery, in Communication of the ACM, n. 64, 2021, 58 ss.

[54] M. Almada, N. Petit, The EU AI act, cit., 14.

[55] V. Papakonstantinou, P. de Hert, The Regulation of Digital Technologies in the EU: The Law-Making Phenomena of ‘Act-ification’, ‘GDPR Mimesis’ and ‘EU Law Brutality’, Londra, 2024.

[56] L. Floridi, On the Brussels-Washington Consensus About the Legal Definition of Artificial Intelligence, in Philosophy & Technology, vol. 36, 2023, 4.

[57] Sul punto cfr. C. Nardocci, Dalla “self-regulation” alla frammentata regola mentazione dei sistemi di intelligenza artificiale: uno sguardo alla (diversa) prospettiva statunitense, in Diritto pubblico comparato ed europeo, fasc. 4, 2024, 859-894.

[58] The White House, Blueprint for an Ai Bill Of Rights Making Automated Systems Work For The American People, Washington, ottobre 2022, in merito al quale si rinvia ex multis E. Himme, L. Floridi, The Blueprint for an AI Bill of Rights: In Search of Enaction, at Risk of Inaction, in Minds and Machines, n. 285, 2023; M. Amarikwa, Rules for robots: constitutional challenges with the ai bill of right’s principles regulating automated systems, in U. Pa. J. Const. L., n. 26, 2024, 1176.

[59]  J.R. Biden Jr., Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence, Washington, 30 ottobre 2023.

[60] Che spesso affrontano solo aspetti specifici, come il California Consumer Privacy Act (Civil Code, Civ Division 3, Obligations Part 4, Title 1.81.5. California Consumer Privacy Act of 2018 [1798.100 – 1798.199.100]), che disciplina l’IA nel processo decisionale automatizzato.

[61] L. Fabiano, Il Liberal-protezionismo digitale statunitense fra difesa della leadership nel mercato tecnologico e sicurezza nazionale, in DPCE-online, n. 3, 2023, 2339.

[62] Ad esempio, nel dicembre 2021, la National Science and Technology Council ha pubblicato un documento (The Networking & Information Technology R&D Program and the National Artificial Intelligence Initiative Office, Supplement to the President’s fy2022 budget, dicembre 2021, consultabile all’indirizzo https://www.whitehouse.gov/wp-content/uploads/2021/12/FY2022-NITRD-NAIIO-Supplement.pdf) sullo stanziamento di fondi pubblici per il settore di ricerca  sviluppo dell’IA per i dipartimenti di Networking and Information Technology Research and Development (NITRD) e il National Artificial Intelligence Initiative. Secondo il report per l’anno 2021 le sole agenzie governative non dedicate alla difesa degli Stati Uniti hanno stanziato fondi pari a 1.53 miliardi di dollari per la ricerca e sviluppo, con la prospettiva di aumentare dell’8.8% per il 2022. Ciò dimostra l’interesse degli Stati Uniti al finanziamento della ricerca nel settore pubblico e non soltanto a quello militare e della difesa (per un confronto tra i diversi approcci cfr. C. Cath, S. Watcher, B. Mittelstadt, M. Taddeo, L. Floridi, Artificial Intelligence and the “Good Society”: the US, EU and UK approach, in Science and Engineering Ethics, n. 2, 2018, 503 ss.)

[63] The White House – Office Of Management And Budget, Budget of the U.S. Government Fiscal Year 2025, Washington, 2024, https://www.whitehouse.gov/wp-content/uploads/2024/03/budget_fy2025.pdf.A scopo esemplificativo, il bilancio prevede 202 miliardi di dollari per la ricerca e lo sviluppo anche per finanziare lo sviluppo dell’IA e gestirne i rischi. Altresì il bilancio stanzia 99 miliardi di dollari nella ricerca di base e applicata per guidare lo sviluppo di tecnologie, prodotti e servizi all’avanguardia del futuro.

[64] Executive Order 13859 of February 11, 2019, Maintaining American Leadership in Artificial Intelligence, in Federal Register, Vol. 84, No. 31, February 14, 2019.

[65] Ibidem, 1. Sul punto cfr. anche The Select Committee on Artificial Intelligence of The National Science and Technology Council National Artificial Intelligence, Research and Development Strategic Plan 2023 Update, May 2023. Sullo stato degli investimenti cfr. Artificial Intelligence Research and Development Interagency Working Group Subcommittee on Networking & Information Technology Research & Development and the Subcommittee on Machine Learning & Artificial Intelligence of the National Science & Technology Council, 2020–2024 Progress Report: Advancing Trustworthy Artificial Intelligence Research and Development, July 2024.

[66] M. Mazzucato, Lo stato innovatore, Bari, IIa ed., 2020, 103.

[67] Communication from the Commission Framework for State aid for research and development and innovation 2022/C 414/01, C/2022/7388, GU C 414 del 28.10.2022.

[68] Regolamento (UE) 2023/1315 della Commissione del 23 giugno 2023 recante modifica del regolamento (UE) n. 651/2014 che dichiara alcune categorie di aiuti compatibili con il mercato interno in applicazione degli articoli 107 e 108 del trattato e del regolamento (UE) 2022/2473 che dichiara compatibili con il mercato interno, in applicazione degli articoli 107 e 108 del trattato sul funzionamento dell’Unione europea, alcune categorie di aiuti a favore delle imprese attive nel settore della produzione, trasformazione e commercializzazione dei prodotti della pesca e dell’acquacoltura (Testo rilevante ai fini del SEE).

[69] Comunicazione congiunta al Parlamento europeo, al Consiglio europeo e al Consiglio sulla “Strategia europea per la sicurezza economica” JOIN/2023/20 final, 20 giugno 2023.

[70] Raccomandazione (UE) 2023/2113 della Commissione del 3 ottobre 2023 relativa ai settori tecnologici critici per la sicurezza economica dell’UE ai fini di un’ulteriore valutazione dei rischi con gli Stati membri, 11 ottobre 2023.

[71] G. Luchena, Le crisi e il nuovo intervento pubblico nell’economia, in E. Bani, F. Di Porto, G. Luchena, E. Scotti, Lezioni di Diritto dell’economia, Torino, 2023, 120.

[72] Approvato durante il Consiglio dei ministri n. 78 del 23 aprile 2024, su proposta del Presidente del Consiglio e del Ministro della giustizia.

[73] Parere circostanziato della Commissione europea (C(2024)7814), trasmesso in data 5 novembre 2024 (Legislatura 19ª – 4ª Commissione permanente, Parere approvato dalla commissione sugli emendamenti relativi al Disegno di Legge n. 1146, in Resoconto sommario n. 214 del 27/11/2024, reperibile all’indirizzo https://www.senato.it/japp/bgt/showdoc/19/SommComm/0/1435866/index.html?part=doc_dc-allegato_a:1).

[74] In tal senso, nel parere si richiama il divieto di duplicazione delle disposizioni di un regolamento europeo nel diritto nazionale, con rinvio alle decisioni della Corte di giustizia UE, causa 34/73, Fratelli Variola, e causa 50/76, Amsterdam Bulb.

[75] Disegno di Legge n. 1146/2024 presentato dal Presidente del Consiglio dei Ministri (Meloni) e dal Ministro della giustizia (Nordio) Comunicato alla Presidenza il 20 maggio 2024, Disposizioni e delega al Governo in materia di intelligenza artificiale.

[76] Sul quale, criticamente e prima del parere circostanziato della Commissione, si erano già sollevati dubbi sulle limitazioni imposte all’impiego dell’I.A. nel settore giudiziario (sia consentito un rinvio a L. Rodio Nico, Efficienza della giustizia e intelligenza artificiale. Profili di diritto dell’economia, Bari, 2024, 169-170).

[77] In tema di giustizia digitale si rinvia a A. Sciarrone Alibrandi, AI Act e giustizia digitale, in Riv. Trim. Dir. ec., suppl. al n. 1, 2024, 140 ss.

[78] Senato della Repubblica XIX Legislatura, Disposizioni e deleghe al Governo in materia di intelligenza artificiale (1146-A), approvato in data 20 marzo 2025 e Disposizioni e deleghe al Governo in materia di intelligenza artificiale (1146-A). Emendamenti, n. 1, 19 marzo 2025.

[79] Disegno di Legge XIX Legislatura N. 1146-B presentato dal Presidente del Consiglio dei ministri (MELONI) e dal Ministro della giustizia (NORDIO) (n. 1146-B) approvato dal Senato della Repubblica il 20 marzo 2025, modificato dalla Camera dei deputati il 25 giugno 2025. Trasmesso dal Presidente della Camera dei deputati alla Presidenza il 26 giugno 2025, Disposizioni e deleghe al Governo in materia di intelligenza artificiale.

[80] In materia di programmazioni v. S. Amorosino, Note sulle regolazioni delle transizioni “economiche”, in Rivista della Regolazione dei mercati, n. 1, 2022, 205-207.

[81] In merito è stato osservato che «la sovranità digitale, rispetto alla nozione tradizionale di sovranità, presenta un carattere nuovo, perché viene invocata sia per assicurare la difesa contro interferenze esterne e quindi il controllo sul territorio (naturale e digitale) nazionale, sia, innovativamente, per espandere le regole di ciascun ordinamento, che seguono, per così dire, i cittadini di quell’ordinamento: per le regole sulla privacy sinora, e potenzialmente per la nuova regolazione europea in materia di mercati e servizi digitale e di Intelligenza Artificiale, gli obblighi imposti hanno proiezione extraterritoriale» (così L. Torchia, Poteri pubblici e poteri privati nel mondo digitale, in Il Mulino, fasc. 1, 2024, 28). In materia di sovranità digitale, si rinvia ex multis a G. Finocchiaro, La sovranità digitale, in Diritto pubblico, fasc. 3, 2022, 809 ss.; A. Simoncini, Sovranità e potere nell’era digitale, in T.E. Frosini, O. Pollicino, E. Apa, M. Bassini (a cura di), Diritti e libertà in Internet, Milano, 2017, 20; G. Tiberi, L’irresistibile ascesa della sovranità digitale europea, in G. Ferri (a cura di), Diritto costituzionale e nuove tecnologie, Napoli, 2022, 175 ss.; F. Casolari, J. Cowls, L. Floridi, J. Morley, H. Roberts, M. Taddeo, Safeguarding European values with digital sov ereignty: an analysis of statements and policies, in Internet Policy Rev., 2021; M. Santaniello, La regolazione delle piattaforme e il principio della sovranità digitale, in Rivista di Digital Politics, fasc. 3, 2021, 579-600 ss.; L. Floridi, The Fight for Digital Sovereignty: What It Is, and Why It Matters, Especially for the EU, in Philosophy & Technology, 2020; M. Betsu, Poteri pubblici e poteri privati nel mondo digitale, in La Rivista “Gruppo di Pisa”, n. 2, 2021, spec. 168 ss.; V. Zeno-Zencovich, Intorno alla decisione nel caso Schrems: la sovranità digitale e il governo internazionale delle reti di telecomunicazione, in Il diritto dell’informazione e dell’informatica, n. 31(4/5), 2016, 683 ss.

[82] N. Maslej, L. Fattorini, R. Perrault, Y. Gil, V. Parli, N. Kariuki, E. Capstick, et al., The AI Index 2025 Annual Report, AI Index Steering Committee, Institute for Human-Centered AI, Stanford, aprile 2025, 252 e 354. Altresì si rinvia a L. Fattorini, N. Maslej, R. Perrault, V. Parli, J. Etchemendy, Y. Shoham, K. Ligett, The Global AI Vibrancy Tool, in arXiv.com, 2024, 10.48550/arXiv.2412.04486.

[83] Di cui all’articolo 1, comma 209, della legge 30 dicembre 2018, n. 145, secondo le disposizioni di cui al decreto del Ministro dello sviluppo economico 27 giugno 2019, pubblicato nella Gazzetta Ufficiale n. 176 del 29 luglio 2019. In tema di mercato italiano del capitale di rischio cfr. R. Gallo, F.M. Signoretti, I. Supino, E. Sette, P. Cantatore, M.L. Fabbri, The Italian venture capital market, in Questioni di Economia e Finanza (Occasional Papers), n. 919, aprile 2025.

[84] Sul punto cfr. C. Siegmann, M. Anderljung, The Brussels Effect and Artificial Intelligence: How the EU reglation will impact the global AI market, arXiv, 2022 https://doi.org/10.48550/arxiv.2208.12645. In generale, in merito al c.d. “effetto Bruxelles”, si rinvia a A. Bradford, The Brussels Effect. How the European Union Rules the World, Oxford, 2020.

[85] Per tali motivi, forse, una sandbox (G. Lo Sapio, Il regolatore alle prese con le tecnologie emergenti. La regulatory sandbox tra principi dell’attività amministrativa e rischio di illusione normativa, in Federalismi.it, n. 20, 2022, 16 ss.; o una sperimentazione normativa (S. Ranchordás, Experimental Regulations and Regulatory Sandboxes – Law Without Order?, in Law and Method, n. 1, 2021) a livello europeo per la regolazione dell’IA avrebbe permesso di affrontare preliminarmente le questioni ancora non risolte che caratterizzano l’AI Act, così come è stato fatto con l’European Blockchain Regulatory Sandbox. Sul punto, inoltre, si è posto in evidenza come «experimental regulations and regulatory sandboxes have recently been regarded as regulatory tools that can be employed to stimulate innovation» (così S. Ranchordas, V. Vinci, Regulatory Sandboxes and Innovation-Friendly Regulation: Between Collaboration and Capture, in Italian Journal Of Public Law, Vol. 16, Iss. 1, 2024, 113).

[86] Come è stato posto in evidenza, il fattore umano deve sempre rimanere centrale ‹‹pur senza che la necessaria precedenza logica e giuridica dell’agente umano possa ergersi a ostacolo all’innovazione tecnologica e al miglioramento dei processi che parti pubbliche e private pongono in essere›› (così A. Pajno, M. Bassini, G. De Gregorio, M. Macchia, F.P. Patti, O. Pollicino, S. Quattrocolo, D. Simeoli, P. Sirena, AI: profili giuridici, cit., 15).

[87] Sul punto è stato osservato che «il regolamento IA rappresenta un potenziale (ma forse solo illusorio) limite al potere delle corporation che possono influenzare le vite dei cittadini/consumatori europei e le economie dei Paesi membri» (così G. Luchena, Tecnologie, mercati e regolazione dell’economia: il caso dell’intelligenza artificiale, in Dialoghi di Diritto dell’Economia, ottobre 2024, 10-11).

Di cosa si parla in questo articolo
Vuoi leggere la versione PDF?

WEBINAR / 30 Settembre
DORA e subappalto di servizi ICT


Gestione del rischio ICT e dei contratti nei nuovi RTS DORA

ZOOM MEETING
Offerte per iscrizioni entro il 09/09


WEBINAR / 14 Ottobre
‎La valutazione delle garanzie immobiliari nell’attuazione del CRR 3

ZOOM MEETING
Offerte per iscrizioni entro il 23/09