Lo scorso 12 luglio 2024 è stato pubblicato in Gazzetta Ufficiale dell’Unione Europea l’AI Act, ovvero il Regolamento (UE) n. 1689/2024, che stabilisce regole armonizzate sull’intelligenza artificiale, e le cui prime disposizioni entreranno in vigore già a febbraio 2025.
Nel contesto del crescente utilizzo dell’intelligenza artificiale, la conformità all’AI Act rappresenta una priorità per tutte le organizzazioni che intendono operare in modo etico e conforme alle normative europee di settore.
Già a partire dal 2025, gli operatori saranno infatti chiamati a rispettare un insieme di obblighi stringenti volti a garantire la trasparenza, la sicurezza e il controllo sull’uso dell’AI.
Il corso fornirà quindi una panoramica completa dei primi adempimenti richiesti dall’AI Act, e, in particolare, le prime indicazioni operative e metodologiche volte all’individuazione delle pratiche vietate, dei sistemi ad alto rischio, nonché delle migliori policy interne di gestione del rischio IA.
Particolare attenzione verrà rivolta all’implementazione di efficaci presidi di governance, approfondendo i ruoli e le responsabilità delle funzioni aziendali coinvolte, affinché possano adottare politiche e processi adeguati a garantire il rispetto dell’AI Act.
L’obiettivo è fornire agli operatori gli strumenti necessari per affrontare i cambiamenti normativi in atto, evitando rischi legali e operativi, promuovendo al contempo un utilizzo responsabile e sicuro dell’IA nelle loro attività quotidiane.
Il programma di dettaglio delle relazioni è disponibile nella brochure scaricabile a questo link.
Tematiche oggetto di attenzione e discussione
L’AI Act
- Introduzione all’AI Act: obiettivi della regolamentazione, tempistiche di adeguamento e sanzioni
- Definizione di sistema di intelligenza artificiale, di fornitore e di deployer
- Gli obblighi dei deployer e dei fornitori dei sistemi di IA
- Quando un deployer è da considerarsi fornitore: responsabilità lungo la catena di valore dell’IA
- Le regole di classificazione dei sistemi di IA
- La definizione delle pratiche vietate dall’AI Act: casi d’uso nel settore bancario e finanziario
- I sistemi di IA ad alto rischio: l’elencazione di cui all’allegato III
- Settori e processi bancari, finanziari ed assicurativi ad alto rischio
Individuazione e gestione dei sistemi di IA
- Valutazione del rischio e criteri per l’identificazione di sistemi di IA ad alto rischio
- AI inventory e risk index: il censimento dei modelli di AI utilizzati, l’assegnazione dell’indice di rischiosità e la classificazione del sistema di IA
- La validazione dei sistemi ad alto rischio e di quelli a basso rischio
- Le politiche interne di gestione dei rischi legati all’IA: i diversi approcci metodologici all’IA
- Il sistema di gestione dei sistemi di IA ad alto rischio
- Il monitoraggio continuo dei sistemi di IA
- la necessità di audit esterni per i sistemi ad alto rischio
- gli obblighi di monitoraggio del funzionamento dei sistemi di IA dei deployer istituti finanziari
- Documentazione obbligatoria a supporto dei sistemi di IA utilizzati: requisiti di trasparenza e auditability
- Il reporting alle autorità competenti: segnalazione dei sistemi di IA ad alto rischio, reporting periodico e incident reporting
AI Governance e responsabilità
- Ruolo del consiglio di amministrazione e del management nella supervisione dei sistemi di IA
- Funzioni aziendali coinvolte (IT, compliance, risk management)
- Requisiti delle persone fisiche cui è affidata la sorveglianza umana dei sistemi di IA
- Piani di formazione interna e sviluppo delle competenze su IA e normativa correlata
- Obblighi di trasparenza e informazioni agli utenti (clienti e dipendenti)
- Il sistema sanzionatorio