Il Parlamento UE ha approvato nel corso della seduta plenaria del 12 marzo scorso il testo del Regolamento sull’intelligenza artificiale (AI Act).
L’obiettivo della proposta approvata è quello di proteggere i diritti fondamentali, la democrazia, lo Stato di diritto e la sostenibilità ambientale, dai sistemi di intelligenza artificiale (IA) ad alto rischio, promuovendo nel contempo l’innovazione e assicurando all’Europa un ruolo guida nel settore.
Il regolamento stabilisce obblighi per l’IA sulla base dei possibili rischi e del livello d’impatto, vietando in particolare alcune applicazioni di IA che minacciano i diritti dei cittadini, tra cui:
- i sistemi di categorizzazione biometrica basati su caratteristiche sensibili e l’estrapolazione indiscriminata di immagini facciali da internet o dalle registrazioni dei sistemi di telecamere a circuito chiuso per creare banche dati di riconoscimento facciale.
- i sistemi di riconoscimento delle emozioni sul luogo di lavoro e nelle scuole
- i sistemi di credito sociale
- le pratiche di polizia predittiva (se basate esclusivamente sulla profilazione o sulla valutazione delle caratteristiche di una persona)
- i sistemi che manipolano il comportamento umano o sfruttano le vulnerabilità delle persone.
Le forze dell’ordine non potranno fare ricorso ai sistemi di identificazione biometrica, tranne in alcune situazioni specifiche espressamente previste dalla legge.
In particolare, l’identificazione “in tempo reale” potrà essere utilizzata solo se saranno rispettate garanzie rigorose, ad esempio se l’uso è limitato nel tempo e nello spazio e previa autorizzazione giudiziaria o amministrativa, come ne casi di ricerca di persone scomparse o per la prevenzione di attacchi terroristici.
L’utilizzo di questi sistemi a posteriori, è considerato ad alto rischio e, per potervi fare ricorso, è richiesta un’autorizzazione giudiziaria, collegata a una specifica ipotesi di reato.
L’AI Act prevede altresì ulteriori obblighi anche per altri sistemi di IA ad alto rischio, poiché potrebbero arrecare danni significativi alla salute, alla sicurezza, ai diritti fondamentali, all’ambiente, alla democrazia e allo Stato di diritto, fra cui gli usi legati a:
- infrastrutture critiche
- istruzione e formazione professionale
- occupazione
- servizi pubblici e privati di base (ad esempio assistenza sanitaria, banche, ecc.)
- migrazione e gestione delle frontiere
- giustizia e processi democratici (come nel caso di sistemi usati per influenzare le elezioni).
In relazione ai sistemi che operino in tali ambiti, pertanto, in base all’AI Act, vige l’obbligo di:
- valutare e ridurre i rischi
- mantenere registri d’uso
- garantire la sorveglianza umana
- rispettare le norme UE sul diritto d’autore.
I modelli più potenti, che potrebbero comportare rischi sistemici, dovranno rispettare anche altri obblighi, ad esempio quello di effettuare valutazioni dei modelli, di valutare e mitigare i rischi sistemici e di riferire in merito agli incidenti.
Inoltre, le immagini e i contenuti audio o video artificiali o manipolati (i cosiddetti “deepfake”) dovranno essere chiaramente etichettati come tali.
Il Regolamento deve ora essere approvato dal Consiglio UE, quindi entrerà in vigore venti giorni dopo la pubblicazione nella Gazzetta ufficiale dell’UE e inizierà ad applicarsi 24 mesi dopo l’entrata in vigore, ad eccezione delle seguenti disposizioni:
- i divieti relativi a pratiche vietate, che si applicheranno sei mesi dopo l’entrata in vigore
- i codici di buone pratiche, che si applicheranno nove mesi dopo
- le norme sui sistemi di IA per finalità generali, compresa la governance che si applicheranno dopo 12 mesi
- gli obblighi per i sistemi ad alto rischio, che si applicheranno dopo 36 mesi.