Il Financial Stability Institute della BIS (Banca dei regolamenti internazionali) ha pubblicato un documento di ricerca che esplora il potenziale impatto trasformativo dell’intelligenza artificiale (IA) sul settore bancario e finanziario.
Lo studio, in particolare, si concentra sull’efficienza operativa, la gestione del rischio e l’esperienza del cliente nel settore bancario e assicurativo, approfondendo l’adozione diffusa delle tecnologie di IA, compresa l‘IA generativa (gen AI), ed esaminando i rischi associati e le implicazioni normative.
Delle questioni correlate alla gestione del rischio in materia di uso dell’intelligenza artificiale da parte degli operatori, e delle tematiche di governance correlate all’attuazione dell’AI Act, se ne discuterà ampiamente nel corso del nostro prossimo webinar DB del 06 febbraio 2025, “AI Act: primi adempimenti per gli operatori“.
Dalla ricerca emerge che, se da un lato l’IA aggrava i rischi esistenti, come il rischio di modello e la privacy dei dati, dall’altro non introduce rischi fondamentalmente nuovi, a parte l’IA generativa, che può dare origine a rischi di allucinazione e antropomorfismo.
La maggior parte delle autorità finanziarie non ha emanato normative sull’IA specifiche per gli istituti finanziari, poiché i quadri normativi esistenti affrontano già la maggior parte di questi rischi.
Tuttavia, l’utilizzo dell’IA da parte delle istituzioni finanziarie può presentare alcune sfide uniche e, di conseguenza, potrebbero essere necessari orientamenti normativi o di vigilanza in aree specifiche del settore finanziario, come l’uso dell’IA nelle attività principali degli istituti finanziari, o nei casi d’uso che presentano rischi più elevati o un impatto potenziale significativo sui clienti.
Le autorità finanziarie potrebbero dover esaminare le normative e, se necessario, emanare chiarimenti, revisioni o addirittura nuove norme in queste aree:
- Quadro di governance: il consiglio di amministrazione e l’alta direzione degli istituti finanziari sono in ultima istanza responsabili delle loro attività, compresi i casi di utilizzo dell’IA; l’uso dell’IA da parte degli istituti finanziari, in particolare nelle loro attività di core business, richiederebbe una chiara assegnazione di ruoli e responsabilità per l’intero ciclo di vita dell’IA; è importante che il quadro di governance specifichi il ruolo dell’intervento umano per ridurre al minimo gli effetti dannosi dei sistemi di IA
- Competenze e abilità nell’IA: un’adozione più ampia dell’IA senza le competenze e le capacità corrispondenti porterebbe ad una comprensione insufficiente e ad una gestione inefficace dei rischi per gli istituti finanziari e il sistema finanziario; le autorità finanziarie possono quindi considerare di chiarire le loro aspettative
in merito alle competenze e alle capacità previste per gli istituti finanziari che intendono espandere l’uso dell’IA nelle loro attività principali. - Gestione del rischio di modello: l’aumento del rischio di modello può essere causato dalla mancanza di trasparenza dei modelli di IA; in presenza di linee guida per la gestione del rischio di modello, le autorità potrebbero ritenere utile comunicare le proprie aspettative in materia di trasparenza e fornire indicazioni sulle qualità fondamentali da considerare nella scelta delle tecniche per la spiegazione del loro funzionamento e nella valutazione della loro efficacia.
- Governance e gestione dei dati: l’utilizzo dell’IA da parte delle istituzioni finanziarie può portare a diverse problematiche legate ai dati; sebbene molti degli elementi rilevanti della governance/gestione dei dati siano contemplati nelle normative esistenti (ad esempio, quelle per il rischio di modello, alla privacy dei consumatori e alla sicurezza delle informazioni), le autorità finanziarie potrebbero voler valutare se questi elementi siano sufficienti o necessitino di essere rafforzati, oppure se è
se sia necessario emanare delle linee guida che affrontino le questioni relative alla governance e alla gestione dei dati dell’IA. - Operatori nuovi/non tradizionali e nuovi modelli/accordi commerciali: per evitare potenziali lacune normative, le norme relative agli operatori nuovi/non tradizionali che forniscono servizi finanziari dovrebbero essere valutate per determinare se necessitano di adeguamenti per tenere conto delle aspettative intersettoriali sull’uso dell’IA; una valutazione normativa simile potrebbe essere necessaria per accordi multilivello nella fornitura di servizi finanziari (ad esempio, Banking-as-a-Service) che coinvolgono l’IA e che potrebbero rendere difficile per le autorità finanziarie attribuire la responsabilità ai vari attori dell’ecosistema.
- Perimetro normativo – terze parti: la concentrazione dei fornitori di servizi di cloud e IA in poche grandi aziende tecnologiche globali rafforza l’argomentazione della necessità di istituire quadri di supervisione diretta per questi fornitori di servizi, a seconda dell’autorità legale disponibile; alcune giurisdizioni si sono mosse in questa direzione, ma l’approccio prevalente è ancora quello di affidare agli istituti finanziari la gestione dei rischi derivanti da queste relazioni di terzi.