WEBINAR / 25 Ottobre
La gestione degli incidenti ICT nel contesto DORA


Gli obblighi di classificazione e segnalazione degli incidenti ICT e di programmazione dei test di resilienza operativa digitale

ZOOM MEETING
Offerte per iscrizioni entro il 04/10


WEBINAR / 25 Ottobre
Gli incidenti ICT nel contesto DORA
www.dirittobancario.it
Flash News
IT

Ai Act 2023: accordo sul nuovo Regolamento UE sull’intelligenza artificiale

14 Dicembre 2023
Di cosa si parla in questo articolo

La Commissione rende noto che il 7 dicembre scorso il Parlamento europeo ed il Consiglio hanno raggiunto l’accordo provvisorio sul nuovo Regolamento sull’intelligenza artificiale (“AI Act 2023”), proposto dalla Commissione nell’aprile 2021.

L’accordo raggiunto sull’Ai Act 2023, concentrando la regolamentazione sui rischi individuabili, promuoverà un’innovazione responsabile in Europa, garantendo la sicurezza ed i diritti fondamentali dei cittadini e delle imprese, e sostenendo lo sviluppo, la diffusione e l’adozione di un’IA affidabile nell’Unione.

In particolare, le nuove norme seguiranno un approccio basato sul rischio:

  • Rischio minimo: le applicazioni a rischio minimo, come i sistemi di raccomandazione o i filtri spam basati sull’IA, saranno esenti da obblighi, in quanto presentano rischi minimi o nulli per i diritti o la sicurezza dei cittadini.
  • Rischio alto: i sistemi di IA ad alto rischio dovranno rispettare requisiti rigorosi e prevedere tra l’altro sistemi di attenuazione dei rischi, come la registrazione delle attività, nonché informazioni chiare per gli utenti, una sorveglianza umana effettiva e un elevato livello di cybersicurezza (vi rientrano le infrastrutture critiche nei settori dell’acqua, del gas e dell’elettricità, dei dispositivi medici, degli istituti di istruzione dell’amministrazione della giustizia; i sistemi di identificazione biometrica, categorizzazione biometrica e riconoscimento delle emozioni).
  • Rischio inaccettabile: i sistemi di IA considerati una chiara minaccia per i diritti fondamentali delle persone saranno vietati, e vi rientrano i sistemi o le applicazioni di IA che manipolano il comportamento umano per aggirare il libero arbitrio degli utenti. Saranno inoltre vietati alcuni usi dei sistemi biometrici, come i sistemi di riconoscimento delle emozioni utilizzati sul luogo di lavoro e alcuni sistemi di categorizzazione delle persone o di identificazione biometrica in tempo reale a fini di attività di contrasto in spazi accessibili al pubblico (con limitate eccezioni).
  • Rischio specifico per la trasparenza: gli utenti dovranno essere informati quando vengono utilizzati sistemi come i chatbot, oppure di categorizzazione biometrica o di riconoscimento delle emozioni; i deep fake e altri contenuti generati dall’IA dovranno essere etichettati come tali. Per le imprese che non rispettano le norme saranno previste considerevoli ammende, calcolate anche in base alla percentuale del fatturato annuo, più elevate in caso di violazioni concernenti applicazioni di IA vietate.

Il Regolamento introduce inoltre norme specifiche che garantiscano la trasparenza, per i “modelli di IA per finalità generali”, ovvero quei sistema di AI che, ai sensi dell’art. 3 punto 1 quinquies, possono essere utilizzati ed adattati ad un’ampia gamma di applicazioni.

Qualora tali modelli comportino rischi sistemici, gli operatori che ne facciano uso dovranno obbligatoriamente attuare un sistema di gestione del rischio adeguato e che monitori gli incidenti gravi; tali sistemi potranno essere implementati anche da codici di condotta elaborati dall’industria, dalla comunità scientifica, dalla società civile e da altri portatori di interessi, congiuntamente alla Commissione.

Per quanto concerne l’attività di vigilanza sulla corretta applicazione del Regolamento, le autorità nazionali competenti per la vigilanza del mercato avranno il compito di sorvegliare l’attuazione delle nuove norme a livello nazionale, e saranno inoltre coadiuvate da un nuovo Ufficio europeo per l’IA, istituito in seno alla Commissione europea.

Tale Ufficio garantirà il coordinamento a livello europeo, supervisionando l’attuazione e l’applicazione delle nuove norme, anche in relazione ai modelli di IA per finalità generali.

L’accordo sull’Ai Act 2023 dovrà ora ricevere l’approvazione formale del Parlamento europeo e del Consiglio, per entrare quindi in vigore 20 giorni dopo la pubblicazione nella Gazzetta ufficiale.

Il Regolamento Ai Act 2023 sarà tuttavia pienamente efficace due anni dopo la sua entrata in vigore, ad eccezione dei divieti, che si applicheranno già dopo 6 mesi, e delle norme sull’IA per finalità generali, che si applicheranno dopo 12 mesi.

La Commissione segnala che, per il periodo transitorio, proporrà agli sviluppatori di IA europei e del resto del mondo di siglare il cd. “Patto sull’IA”, per l’attuazione volontaria degli obblighi fondamentali del Regolamento prima della sua entrata in vigore.

Di cosa si parla in questo articolo

WEBINAR / 25 Ottobre
La gestione degli incidenti ICT nel contesto DORA


Gli obblighi di classificazione e segnalazione degli incidenti ICT e di programmazione dei test di resilienza operativa digitale

ZOOM MEETING
Offerte per iscrizioni entro il 04/10

Iscriviti alla nostra Newsletter