WEBINAR / 06 Febbraio
AI Act: primi adempimenti per gli operatori


Presidi di governance e controllo per l'uso dell'Intelligenza Artificiale

ZOOM MEETING
offerte per iscrizioni entro il 17/01


WEBINAR / 06 Febbraio
AI Act: primi adempimenti per gli operatori
www.dirittobancario.it
Flash News
IT

Digital Services Act: misure a tutela dell’integrità delle elezioni

26 Marzo 2024
Di cosa si parla in questo articolo

La Commissione UE ha pubblicato oggi degli orientamenti sulle misure raccomandate alle piattaforme online di grandi dimensioni e ai motori di ricerca per attenuare i rischi sistemici online che possono avere un impatto sull’integrità delle elezioni, con indicazioni specifiche per le prossime elezioni del Parlamento europeo di giugno, conformemente al Digital Services Act, ovvero al Regolamento (UE) 2022/2065.

In base al Digital Services Act (DSA), le piattaforme on line e i motori di ricerca con più di 45 milioni di utenti attivi nell’UE hanno l’obbligo di attenuare i rischi legati ai processi elettorali, salvaguardando i diritti fondamentali, compreso il diritto alla libertà di espressione.

Queste linee guida raccomandano le misure di mitigazione e le migliori pratiche che le piattaforme online di grandi dimensioni e i motori di ricerca devono adottare prima, durante e dopo gli eventi elettorali, come, ad esempio:

  • Rafforzare i loro processi interni, anche creando team interni con risorse adeguate, utilizzando le analisi e le informazioni disponibili sui rischi specifici del contesto locale e sull’uso dei loro servizi da parte degli utenti per cercare e ottenere informazioni prima, durante e dopo le elezioni, per migliorare le loro misure di mitigazione.
  • Implementare misure di mitigazione del rischio specifiche per le elezioni, adattate a ogni singolo periodo elettorale e contesto locale, come promuovere informazioni ufficiali sui processi elettorali, implementare iniziative di alfabetizzazione mediatica e adattare i loro sistemi di raccomandazione per responsabilizzare gli utenti e ridurre la monetizzazione e la viralità dei contenuti che minacciano l’integrità dei processi elettorali; la pubblicità politica dovrebbe essere chiaramente etichettata come tale, in previsione del nuovo regolamento sulla trasparenza e il targeting della pubblicità politica.
  • Adottare misure di mitigazione specifiche legate all’IA generativa: le piattaforme online di grandi dimensioni e i motori di ricerca i cui servizi potrebbero essere utilizzati per creare e/o diffondere contenuti di IA generativa dovrebbero valutare e mitigare i rischi specifici legati all’IA, ad esempio etichettando chiaramente i contenuti generati dall’IA (come i c.d. deepfakes), adattando di conseguenza i loro termini e condizioni e facendoli rispettare adeguatamente.
  • Cooperare con le autorità nazionali e dell’UE, con gli esperti indipendenti e con le organizzazioni della società civile per promuovere uno scambio efficiente di informazioni prima, durante e dopo le elezioni e facilitare l’uso di misure di mitigazione adeguate, anche nei settori della manipolazione e interferenza dell’informazione straniera (FIMI), della disinformazione e della sicurezza informatica.
  • Adottare misure specifiche, compreso un meccanismo di risposta agli incidenti, durante il periodo elettorale per ridurre l’impatto degli incidenti che potrebbero avere un effetto significativo sull’esito delle elezioni o sull’affluenza alle urne.
  • Valutare l’efficacia delle misure attraverso revisioni post-elettorali: le piattaforme online di grandi dimensioni e i motori di ricerca dovrebbero pubblicare una versione non riservata di tali documenti di revisione post-elettorale, offrendo l’opportunità di un feedback pubblico sulle misure di mitigazione del rischio adottate.

Le linee guida incoraggiano inoltre una stretta collaborazione con la task force dell’Osservatorio europeo dei media digitali (EDMO) sulle elezioni europee del 2024.

Gli orientamenti tengono conto dei contributi ricevuti dalla consultazione pubblica avviata dalla Commissione l’8 febbraio 2024.

Le piattaforme online di grandi dimensioni e i motori di ricerca che non seguiranno queste linee guida dovranno dimostrare alla Commissione che le misure adottate sono ugualmente efficaci nel mitigare i rischi.

Qualora la Commissione riceva informazioni che mettano in dubbio l’adeguatezza di tali misure, può richiedere ulteriori informazioni, o avviare un procedimento formale ai sensi del Digital Services Act.

Di cosa si parla in questo articolo

WEBINAR / 06 Febbraio
AI Act: primi adempimenti per gli operatori


Presidi di governance e controllo per l'uso dell'Intelligenza Artificiale

ZOOM MEETING
offerte per iscrizioni entro il 17/01

Iscriviti alla nostra Newsletter