WEBINAR / 06 Febbraio
AI Act: primi adempimenti per gli operatori


Presidi di governance e controllo per l'uso dell'Intelligenza Artificiale

ZOOM MEETING
offerte per iscrizioni entro il 17/01


WEBINAR / 06 Febbraio
AI Act: primi adempimenti per gli operatori
www.dirittobancario.it
Flash News
IT

Intelligenza artificiale: dal G7 principi e codice di condotta

31 Ottobre 2023
Di cosa si parla in questo articolo

I leader del G7 hanno approvato i nuovi principi guida internazionali sull’intelligenza artificiale (IA) ed il codice di condotta volontario per lo sviluppo di sistemi avanzati di AI.

I principi sull’intelligenza artificiale ed il codice di condotta si inseriscono nel contesto del processo di Hiroshima sull’intelligenza artificiale, istituito nel vertice G7 del 19 maggio 2023 con lo scopo di promuovere misure protettive a livello mondiale per i sistemi avanzati di IA.

I principi ed il codice di condotta integreranno le norme contenute nella proposta di regolamentazione dell’UE sull’IA.

I principi adottati dal G7 forniscono orientamenti alle organizzazioni che sviluppano, diffondono e utilizzano sistemi avanzati di intelligenza artificiale, come i modelli di base e gli strumenti di IA generativa, per promuovere la sicurezza e l’affidabilità della tecnologia.

Comprendono impegni per mitigare i rischi e gli abusi, individuare le vulnerabilità e promuovere una condivisione responsabile delle informazioni, la segnalazione degli incidenti e gli investimenti nella cibersicurezza, nonché un sistema di etichettatura che consenta agli utenti di individuare i contenuti generati dall’AI.

A loro volta i principi guida sono serviti come base per l’elaborazione del codice di condotta, che fornirà orientamenti dettagliati e pratici alle organizzazioni che sviluppano l’IA.

Il Codice di condotta volontario promuoverà inoltre una governance responsabile dell’AI a livello mondiale.

Principi G7 su intelligenza artificiale

Gli undici principi adottati riguardano in particolare i seguenti profili.

Misure adeguate per identificare, valutare e mitigare i rischi legati all’intelligenza artificiale

I soggetti interessati dovrebbero adottare misure appropriate durante tutto lo sviluppo di sistemi avanzati di intelligenza artificiale, anche prima e durante la loro distribuzione e immissione sul mercato, per identificare, valutare e mitigare i rischi lungo tutto il ciclo di vita dell’IA.

In particolare dovrebbero essere impiegate diverse misure di test interni ed esterni indipendenti, attraverso una combinazione di metodi come il red-teaming, e l’implementazione di misure di mitigazione appropriate per affrontare i rischi e le vulnerabilità identificate.

I test e le misure di mitigazione dovrebbero, ad esempio, cercare di garantire l’affidabilità, la sicurezza e la protezione dei sistemi durante il loro intero ciclo di vita, in modo che non presentino rischi irragionevoli.

A sostegno di tali test, gli sviluppatori dovrebbero cercare di consentire la tracciabilità, in relazione ai set di dati, ai processi e alle decisioni prese durante lo sviluppo del sistema.

Misure connesse all’uso improprio

Le organizzazioni dovrebbero monitorare le vulnerabilità, gli incidenti, i rischi emergenti e l’uso improprio dei sistemi di intelligenza artificiale e intraprendere le azioni appropriate per la loro risoluzione.

Le organizzazioni sono incoraggiate a considerare, ad esempio, la possibilità di facilitare l’emersione e la segnalazione di problemi e vulnerabilità da parte di utenti e terzi dopo l’implementazione dei sistemi di IA.

Le organizzazioni sono inoltre incoraggiate a mantenere un’adeguata documentazione degli incidenti segnalati e a mitigare i rischi e le vulnerabilità identificate, in collaborazione con altri stakeholder.

I meccanismi di segnalazione delle vulnerabilità, ove appropriato, dovrebbero essere accessibili a un insieme diversificato di stakeholder.

Misure di trasparenza informativa sui sistemi avanzati di intelligenza artificiale

Le organizzazioni dovrebbero comunicare le capacità, i limiti e gli ambiti di utilizzo appropriato e inappropriato dei sistemi avanzati di IA, per garantire una sufficiente trasparenza, contribuendo così ad aumentare la responsabilità.

Ciò comprende la pubblicazione di rapporti di trasparenza contenenti informazioni significative per tutti i nuovi rilasci significativi di sistemi avanzati di intelligenza artificiale.

Le organizzazioni devono fare in modo che le informazioni contenute nei rapporti di trasparenza siano sufficientemente chiare e comprensibili per consentire agli implementatori e agli utenti di interpretare i risultati del modello/sistema e per permettere agli utenti di utilizzarli in modo appropriato; i rapporti di trasparenza devono essere supportati e informati da solidi processi di documentazione.

Condivisione responsabile delle informazioni e segnalazione degli incidenti

Le organizzazioni dovrebbero lavorare per una condivisione responsabile delle informazioni e per la segnalazione degli incidenti tra le organizzazioni che sviluppano sistemi avanzati di intelligenza artificiale, anche con l’industria, i governi, la società civile e il mondo accademico.

In tale logica dovrebbero essere condivisi i rapporti di valutazione, le informazioni sui rischi per la sicurezza e la protezione, le capacità pericolose, previste o non previste, e i tentativi di aggirare le salvaguardie lungo il ciclo di vita dell’IA.

Politiche di governance intelligenza artificiale e gestione del rischio

Le organizzazioni dovrebbero sviluppare, implementare e divulgare politiche di governance dell’AI e di gestione del rischio, basate su un approccio basato sul rischio, comprese le politiche sulla privacy e le misure di mitigazione, in particolare per le organizzazioni che sviluppano sistemi avanzati di IA.

Ciò include la divulgazione, ove opportuno, delle politiche sulla privacy, anche per i dati personali, le richieste degli utenti e i risultati dei sistemi avanzati di IA.

Le organizzazioni devono stabilire e divulgare le proprie politiche di governance dell’AI e i meccanismi organizzativi per implementare tali politiche secondo un approccio basato sul rischio.

Ciò dovrebbe includere processi di responsabilità e di governance per valutare e mitigare i rischi, ove possibile, durante l’intero ciclo di vita dell’IA.

Efficace sistema dei controlli

Le organizzazioni dovrebbero implementare solidi controlli di sicurezza, tra cui la sicurezza fisica, la cybersicurezza e le protezioni contro le minacce interne in tutto il ciclo di vita dell’IA.

Questi possono includere la protezione dei pesi e degli algoritmi dei modelli, dei server e dei set di dati, ad esempio attraverso misure di sicurezza operativa per la sicurezza delle informazioni e controlli appropriati dell’accesso informatico/fisico.

Meccanismi di autenticazione e provenienza dei contenuti

Le organizzazioni dovrebbero sviluppare e implementare meccanismi affidabili di autenticazione e provenienza dei contenuti, laddove tecnicamente fattibile, come il watermarking o altre tecniche per consentire agli utenti di identificare i contenuti generati dall’intelligenza artificiale.

I dati di provenienza dovrebbero includere un identificatore del servizio o del modello che ha creato il contenuto, ma non necessariamente informazioni sull’utente.

Le organizzazioni dovrebbero anche cercare di sviluppare strumenti o API per consentire agli utenti di determinare se un determinato contenuto è stato creato con il loro sistema di intelligenza artificiale avanzato, ad esempio tramite filigrane.

Le organizzazioni sono inoltre incoraggiate a implementare altri meccanismi come l’etichettatura o le dichiarazioni di non responsabilità per consentire agli utenti, ove possibile e opportuno, di sapere quando stanno interagendo con un sistema di AI.

Priorità alla ricerca per mitigare i rischi

Dovrebbe essere data priorità alla ricerca per mitigare i rischi per la società, la sicurezza e la protezione e dare priorità agli investimenti in misure di mitigazione efficaci.

Ciò include la conduzione, la collaborazione e l’investimento in ricerche che sostengono il progresso della sicurezza, della protezione e della fiducia nell’IA, affrontando i rischi principali e investendo nello sviluppo di strumenti di mitigazione adeguati.

Priorità a sistemi avanzati di intelligenza artificiale per affrontare crisi climatica, salute globale e istruzione

Dovrebbe essere data priorità allo sviluppo di sistemi avanzati di AI per affrontare le maggiori sfide del mondo, in particolare, ma non solo, la crisi climatica, la salute globale e l’istruzione.

Questi sforzi sono intrapresi a sostegno dei progressi degli Obiettivi di sviluppo sostenibile delle Nazioni Unite e per incoraggiare lo sviluppo dell’IA a beneficio del mondo.

Le organizzazioni devono dare priorità alla gestione responsabile di un’AI affidabile e incentrata sull’uomo e sostenere le iniziative di alfabetizzazione digitale.

Standard tecnici internazionali

Dovrebbe essere promosso lo sviluppo e, ove appropriato, l’adozione di standard tecnici internazionali.

Ciò include il contributo allo sviluppo e, ove appropriato, all’utilizzo di standard tecnici internazionali e di best practice, anche per il watermarking, e la collaborazione con le Organizzazioni per lo Sviluppo degli Standard (SDO).

Protezione dei dati personali e della proprietà intellettuale

Dovrebbero essere implementate misure appropriate per l’inserimento dei dati e la protezione dei dati personali e della proprietà intellettuale.

Le organizzazioni sono incoraggiate ad adottare misure appropriate per la gestione della qualità dei dati, compresi i dati di formazione e la raccolta dei dati, per mitigare i pregiudizi dannosi. Si dovrebbe inoltre sostenere un’adeguata trasparenza dei dati di formazione e le organizzazioni dovrebbero rispettare i quadri giuridici applicabili.

Di cosa si parla in questo articolo

WEBINAR / 06 Febbraio
AI Act: primi adempimenti per gli operatori


Presidi di governance e controllo per l'uso dell'Intelligenza Artificiale

ZOOM MEETING
offerte per iscrizioni entro il 17/01

Iscriviti alla nostra Newsletter