WEBINAR / 16 Giugno
Informativa consiliare e responsabilità degli amministratori nella riforma


Le novità della riforma societaria

ZOOM MEETING
Offerte per iscrizioni entro il 21/05


WEBINAR / 16 Giugno
Informativa consiliare e responsabilità degli amministratori nella riforma
www.dirittobancario.it
Flash News
IT

AI Act: linee guida Commissione UE sugli obblighi di trasparenza

11 Maggio 2026
Di cosa si parla in questo articolo

La Commissione UE ha posto in consultazione una bozza di linee guida sull’attuazione degli obblighi di trasparenza per determinati sistemi di intelligenza artificiale, ai sensi dellart. 50 dell’AI Act.

Le linee guida intendono fornire indicazioni pratiche per aiutare le autorità competenti, nonché i fornitori e gli utilizzatori di sistemi di IA, a garantire il rispetto degli obblighi di trasparenza previsti dall’articolo 50 dell’AI Act, in modo coerente, efficace e uniforme.

L’AI Act adotta un approccio basato sul rischio, classificando i sistemi di IA in quattro diverse categorie di rischio, una delle quali comprende i sistemi di IA che presentano rischi in materia di trasparenza e che sono soggetti agli obblighi previsti dall’articolo 50 dell’AI Act, che si applicano due anni dopo l’entrata in vigore del Regolamento, ovvero dal 02 agosto 2026.

Più nel dettaglio, le linee guida seguono la diversa declinazione degli obblighi di trasparenza previsti da tale articolo dell’AI Act, per fornitori e utilizzatori dei sistemi di IA, ovvero:

  • l’art. 50, par. 1 dell’AI Act, il quale si rivolge ai fornitori di sistemi di IA che interagiscono direttamente con le persone fisiche, i quali devono progettare e sviluppare i propri sistemi in modo tale che le persone fisiche interessate siano informate del fatto che stanno interagendo con un sistema di IA: come spiegato nel considerando 132 dell’AI Act, lo scopo di tale obbligo di informazione è consentire a tali persone fisiche di prendere decisioni informate riguardo ai risultati del sistema, evitare che facciano eccessivo affidamento su tali sistemi e permettere loro di calibrare di conseguenza la propria fiducia nei contenuti e nelle interazioni.
  • l’art. 50, par. 2, che impone ai fornitori di sistemi di IA che generano contenuti contenuti audio, immagine, video o testuali sintetici, di garantire che gli output del sistema di IA siano marcati in un formato leggibile meccanicamente e rilevabili come generati o manipolati artificialmente: l’obiettivo è consentire alle persone fisiche di distinguere i contenuti generati o manipolati dall’IA dagli altri contenuti (ad esempio quelli creati dall’uomo) e di verificarne l’origine, contribuendo così anche a rafforzare l’integrità e la fiducia nell’ecosistema dell’informazione. I beneficiari di tale obbligo di trasparenza sono pertanto tutte le persone fisiche che potrebbero essere esposte a contenuti generati o manipolati dall’IA, nonché gli attori chiave che svolgono un ruolo importante nel garantire l’integrità dell’ecosistema dell’informazione, quali le autorità competenti di vigilanza del mercato e altre autorità competenti, i ricercatori indipendenti, le organizzazioni della società civile, le organizzazioni dei media, i fornitori di piattaforme online, ecc.
  • l’art. 50, par. 3, che impone ai gestori di sistemi di riconoscimento delle emozioni e di classificazione biometrica l’obbligo di informare le persone fisiche soggette a tali sistemi in merito al funzionamento degli stessi, salvo che non si applichi un’eccezione: il considerando 132 dell’AI Act spiega che lo scopo del paragrafo 3 è garantire che le persone fisiche (comprese le persone con disabilità) siano consapevoli di essere esposte a sistemi di riconoscimento delle emozioni e di categorizzazione biometrica che possono costituire un’intrusione nella vita privata delle persone interessate. L’obbligo si applica quindi indipendentemente dal fatto che le persone siano esposte a tali sistemi in tempo reale o che questi siano gestiti a posteriori
  • l’art. 50, par. 4, che stabilisce due obblighi a carico dei gestori di sistemi di IA generativa, che richiedono l’indicazione chiara e distinguibile:
    • dei deepfake
    • dei testi generati o manipolati dall’IA pubblicati allo scopo di informare il pubblico su questioni di interesse pubblico, salvo nei casi specificatamente definiti. Tali obblighi di etichettatura si applicano in aggiunta e senza pregiudizio agli obblighi di marcatura e rilevamento leggibili da macchina di cui al paragrafo 2, applicabili ai fornitori di sistemi di IA che generano o manipolano immagini, video, audio o contenuti testuali sintetici.

La Commissione ha elaborato le presenti linee guida parallelamente al Codice di condotta sulla marcatura e l’etichettatura dei contenuti generati dall’IA: le linee guida, in particolare, chiariscono la portata degli obblighi giuridici e affrontano aspetti non contemplati dal codice.

La consultazione è aperta sino al 03 giugno 2026.

Di cosa si parla in questo articolo

WEBINAR / 14 Maggio
Riforma TUF: la nuova governance delle società quotate


Impatti operativi, scelte strategiche e problematiche correlate

ZOOM MEETING
Offerte per iscrizioni entro il 22/04


WEBINAR / 16 Giugno
Informativa consiliare e responsabilità degli amministratori nella riforma


Le novità della riforma societaria

ZOOM MEETING
Offerte per iscrizioni entro il 21/05