Per “trasparenza”, ai sensi dell’AI Act (considerando n. 27), si intende che i sistemi di IA siano sviluppati e utilizzati in modo da consentire un’adeguata tracciabilità e spiegabilità, rendendo gli esseri umani consapevoli del fatto di comunicare o interagire con un sistema di IA ed informando gli utilizzatori stessi delle capacità e dei limiti di tale sistema di IA.
Il concetto di trasparenza è quindi inscindibilmente legato al concetto di spiegabilità, che, nei modelli di IA, consente di analizzare e comprendere l’intero processo decisionale, garantendo trasparenza e attribuzione delle responsabilità delle decisioni prese.
La rilevanza di tali concetti in materia di sistemi di IA non è sfuggita al legislatore UE, il quale, fra gli obblighi delineati nel regolamento, ha delineato con particolare pregnanza quelli in materia di trasparenza, differentemente disciplinati, per fornitori e utilizzatori (c.d. deployer) dei sistemi stessi, a seconda del livello di rischio attribuito agli stessi.
Di tutte le questioni sintetizzate, se ne discuterà ampiamente nel prossimo webinar organizzato dalla nostra Rivista il 30 ottobre 2025, “AI Act: adeguamento di policy e contratti”.
Il Regolamento (UE) 2024/1689 (AI Act) adotta, come noto, un approccio graduato su diversi livelli di rischio del sistema di IA (inaccettabile, alto, limitato, minimo) e prevede obblighi differenziati a seconda dell’appartenenza di un sistema di intelligenza artificiale all’uno o all’altro livello di rischio.
L’AI Act disciplina gli obblighi di trasparenza sia a livello generale, ovvero per qualsiasi sistema che interagisca con persone fisiche, indipendentemente dal livello di rischio (artt. 50), sia, più nel dettaglio, per i sistemi classificati come ad alto rischio (art. 13).
L’art. 50, in particolare, pone degli obblighi di trasparenza sia a carico dei fornitori, che degli utilizzatori dei sistemi di IA: in generale, quando un’IA interagisce con un essere umano, vi è l’obbligo primario di rendere evidente a quest’ultimo che sta interagendo con un sistema automatizzato e non con un altro essere umano, ciò a meno che tale interazione non sia già ovvia per l’utente.
I fornitori di sistemi di IA generativa devono quindi, lato loro, implementare adeguate soluzioni tecniche affinché gli output dei sistemi possano essere contrassegnati in formato leggibile da una macchina e riconoscibili come creati dall’IA.
La stessa disciplina è prevista per i testi informativi destinati al pubblico generati dall’IA, per i quali deve essere dichiarato che il testo è stato prodotto o alterato dall’IA, salvo che vi sia stato un successivo intervento umano editoriale che ne garantisca l’affidabilità e ne consenta l’attribuzione delle correlate responsabilità.
Ulteriore obbligo di trasparenza riguarda l’informazione circa l’uso di sistemi di riconoscimento delle emozioni o di categorizzazione biometrica, rivolto agli utilizzatori, e volto a tutelare coloro che potrebbero esserne assoggettati, senza esserne a conoscenza.
L’art. 13 dell’AI Act, specificamente in relazione ai sistemi ad alto rischio, prescrive una serie di obblighi stringenti per i fornitori dei sistemi di IA, che, in parte, si riflettono anche sugli utilizzatori degli stessi. Così, i sistemi di IA ad alto rischio:
- devono essere progettati e sviluppati in modo da garantire che il loro funzionamento sia sufficientemente trasparente, ovvero tale da consentire ai deployer di interpretare l’output del sistema e utilizzarlo adeguatamente
- devono essere accompagnati da istruzioni per l’uso, con informazioni concise, complete, corrette e chiare che siano pertinenti, accessibili e comprensibili per i deployer.
E’ evidente, pertanto, che tutti i soggetti che utilizzino i sistemi di intelligenza artificiale devono prestare particolare attenzione al rispetto dei requisiti in materia di trasparenza, e ciò soprattutto se il sistema sia ad alto rischio: e tale attenzione è richiesta non solo quando tali sistemi vengano utilizzati internamente, ma soprattutto quando gli stessi vengono utilizzati per veicolare informazioni al pubblico (es. comunicati stampa), a interloquire con il pubblico (es. chatbot), o a prendere decisioni che si riflettano sulla sfera giuridica di terzi (es. valutazione del merito creditizio, selezione del personale in vista di assunzione).
L’attenzione al rispetto dei requisiti in materia di trasparenza inoltre, non concerne solo ed esclusivamente gli obblighi che l’AI Act impone direttamente ai deployer (come delineati ad esempio negli artt. 13 e 50), ma si riflette altresì nelle dovute verifiche della compliance a tali requisiti dei sistemi di IA acquistati da terzi.
L’utilizzatore, in sostanza, deve pretendere adeguate garanzie contrattuali, in termini di trasparenza, da parte del fornitore, che, anche per il tramite della documentazione tecnica fornita, gli consenta, in particolare, soprattutto per i sistemi ad alto rischio, di comprendere le caratteristiche, le capacità e i limiti delle prestazioni del sistema.
E’ altrettanto evidente che gli obblighi in termini di trasparenza, e le verifiche circa il loro rispetto da parte dei fornitori, mutano in funzione della qualifica del sistema di IA utilizzato: preliminarmente, pertanto, è importante che l’ente si doti di adeguate policy e procedure interne che gli consentano di verificare, caso per caso, il rischio collegato al sistema utilizzato (c.d. AI risk assessment).