La Commissione UE ha pubblicato la terza bozza del Codice di condotta generale per l’intelligenza artificiale (IA), redatto da esperti indipendenti, avviando così l’ultima fase, prima della versione finale prevista per maggio 2025.
Rispetto alle due precedenti bozze, questa versione del Codice presenta una struttura più snella, con impegni e misure maggiormente dettagliati.
La bozza si basa su un elenco di impegni di alto livello, e fornisce altresì misure più dettagliate per l’attuazione di ciascun impegno, ovvero:
- 2 impegni relativi alla trasparenza e al diritto d’autore (copyright), per tutti i fornitori di modelli di IA generici
- 16 impegni relativi alla sicurezza, solo per i fornitori di modelli di IA generici classificati come modelli di IA generici a rischio sistemico.
I miglioramenti si basano sul feedback ricevuto sulla seconda bozza pubblicata il 19 dicembre 2024; congiuntamente alla terza bozza, gli esperti della Commissione propongono anche un sommario esecutivo dedicato e un sito web interattivo, al fine di facilitare le parti interessate a fornire un feedback sulla bozza per iscritto e nelle prossime discussioni nei gruppi di lavoro e nei workshop dedicati.
Il Codice di condotta UE per l’IA, nella versione finale, dovrebbe essere finalizzato dalla Commissione entro la fine di maggio 2025, e costituirà uno strumento per i fornitori di modelli di IA di uso generale, per dimostrare la conformità delle proprie condotte all’AI Act, incorporando le pratiche più avanzate.
Le prime due sezioni della bozza del Codice dettagliano gli obblighi di trasparenza e di copyright per tutti i fornitori di modelli di IA generici, con ampie esenzioni dagli obblighi di trasparenza per i fornitori di alcuni modelli open-source, in linea con l’AI Act; è stato incluso incluso un modulo di documentazione del modello di facile utilizzo, che consente ai firmatari di documentare facilmente le informazioni necessarie.
La sezione sul diritto d’autore contiene le misure fondamentali della seconda bozza, ma in forma semplificata e più chiara.
La terza sezione del Codice è rilevante solo per un piccolo numero di fornitori di modelli di IA generici più avanzati, che potrebbero comportare rischi sistemici, in conformità ai criteri di classificazione di cui all’art. 51 dell’AI Act: in questa sezione il Codice delinea le misure per la valutazione e la mitigazione del rischio sistemico, tra cui la valutazione dei modelli, la segnalazione degli incidenti e gli obblighi di cybersecurity.
L’Ufficio AI della Commissione si impegna inoltre a garantire una comprensione olistica delle norme dell’AI Act per l’AI generale, a complemento della stesura del Codice: pertanto, allo scopo, pubblicherà altresì una guida, che chiarirà l’ambito di applicazione delle norme.
La guida si concentrerà, tra gli altri temi:
- sulle definizioni di modello di IA per scopi generali, di immissione dei modelli sul mercato e di fornitore
- sulle responsabilità lungo la catena di valore, ad esempio in che misura le regole si applicheranno agli operatori a valle della catena di fornitura, che modifichino o mettano a punto un modello di IA per scopi generali.
- sull‘esenzione per i modelli forniti con licenza libera e open-source
- sugli effetti dell’AI Act sui modelli immessi sul mercato prima dell’agosto 2025
L’Ufficio AI informa inoltre che ha aggiornato la Sezione Q&A dedicata ai chiarimenti sui modelli di IA di uso generale di cui all’Ai Act.
La Commissione invita gli stakeholders a fornire un feedback entro il 30 marzo 2025.