VIDEO - Regolamento Intelligenza artificiale parte I
MARCO MANCARELLA
Professore di Informatica giuridica Avvocato esperto in Diritto delle nuove tecnologie
Il relatore principale è Marco Mancarella, professore di informatica giuridica ed esperto di diritto delle nuove tecnologie. La discussione si focalizza sull’AI Act, il regolamento europeo sull’intelligenza artificiale (Regolamento 1689/2024), evidenziando l’impatto sulle pubbliche amministrazioni (PA) e sugli enti locali.
Punti principali trattati
-
Contesto dell’Intelligenza Artificiale:
- Crescente diffusione e utilizzo dell'IA in diversi settori, compresa la pubblica amministrazione.
- Rischi connessi alla regolamentazione e alla protezione dei dati.
- Esempi di utilizzo dell’IA (sentenze scritte da IA in Colombia, atti normativi in Brasile, esperimenti in alcuni comuni italiani).
- Il caso "DeepSeek", un'IA cinese bloccata in Italia dal Garante per la Privacy per violazioni del GDPR.
-
Struttura del Regolamento Europeo sull’IA (AI Act)
-
Classificazione dei sistemi di IA in quattro livelli di rischio:
- Rischio inaccettabile (vietati, es. Social Scoring in stile cinese).
- Alto rischio (richiedono valutazioni e conformità, es. identificazione biometrica, infrastrutture critiche, accesso a servizi pubblici).
- Rischio limitato (Chatbot e assistenti virtuali).
- Rischio minimo (IA nei videogiochi, strumenti senza impatti rilevanti).
-
Gli enti pubblici rientrano tra gli "AI deployer", ossia utilizzatori di IA, soggetti a determinati obblighi normativi.
-
Aspetti normativi e valutazione del rischio
- Necessità di effettuare la valutazione di impatto (DPIA – Data Protection Impact Assessment) lato privacy.
- Introduzione della nuova valutazione di impatto per l’IA (FRIA - Fundamental Rights Impact Assessment) per sistemi di IA ad alto rischio.
- Il problema della mancanza di standard e linee guida operative per la FRIA, attualmente in fase di sviluppo da parte di esperti europei (Francia, Spagna, Politecnico di Torino).
-
Difficoltà operative per gli enti locali
- Le PA italiane si trovano a dover gestire l’adozione dell’IA senza linee guida consolidate.
- I fornitori di soluzioni AI non forniscono ancora dettagli tecnici sufficienti per effettuare valutazioni di conformità.
- La Regione Puglia sta sperimentando un tool di supporto per la valutazione di IA negli enti regionali.
- Mancanza di una figura equivalente al DPO (Data Protection Officer) per l'IA all’interno delle amministrazioni pubbliche.
Parole chiave
- AI Act
- Intelligenza Artificiale
- Regolamento Europeo 1689/2024
- Garante della Privacy
- Pubblica Amministrazione (PA)
- DPIA (Data Protection Impact Assessment)
- FRIA (Fundamental Rights Impact Assessment)
- Rischio inaccettabile / Alto rischio / Rischio limitato / Rischio minimo
- Social Scoring
- DeepSeek
- Compliance normativa
- Protezione dei dati
- Identificazione biometrica
- Digitalizzazione enti pubblici
- Conformità GDPR
- Gdpr e AI Act
- Regione Puglia
- Deployer (Utilizzatore di AI)
- Valutazione del rischio
- Standard europei sull’IA
Corso gratuito per gli aderenti al Video Formazione Generale
Per partecipare, è necessaria la registrazione al portale my upel e l’iscrizione al corso online. Prima del corso, si riceverà via e-mail il link per il collegamento