E’ stato di recente pubblicato uno studio da parte dell’AgID, l’agenzia tecnica che guida la trasformazione digitale nazionale, in merito alle vulnerabilità della sicurezza quando i sistemi di intelligenza artificiale vengono implementati nei processi amministrativi della PA.
La Pubblica Amministrazione sta progressivamente introducendo sistemi di intelligenza artificiale al fine di rendere maggiormente efficienti i propri processi.
Tradizionalmente i sistemi informatici della PA rispondono a procedure standard. Ad esempio, nell’ambito della gestione documentale ogni utente abilitato può avere accesso a differenti documenti a seconda del ruolo ricoperto (assistente, funzionario o dirigente).
L’introduzione di sistemi di intelligenza artificiale, come i LLM, nei processi decisionali genera delle criticità in merito alle autorizzazioni di accesso.
Lo studio sperimenta le vulnerabilità degli strumenti di IA dimostrando come sia possibile per soggetti terzi accedere ai dati riservati in assenza della relativa autorizzazione tramite i c.d. Context Compliance Attack (CCA).
In tale contesto, l’Autorità sottolinea sia necessario non affidare da parte delle PA la sicurezza esclusivamente all’intelligenza artificiale ma che risulti anche indispensabile la previsione di un sistema di controllo esterno indipendente che validi le azioni dell’IA.


