1. Introduzione
Da più di due anni, in corrispondenza di ingenti investimenti annunciati dalla Commissione europea[1], ferve un dibattito sui benefici e sui rischi connessi alle applicazioni di intelligenza artificiale[2]. Un dibattito che, per quanto cadenzato da diversi interventi di riscontro[3], si è prevalentemente incentrato su profili di carattere generale, prescindendo dalla considerazione delle varie declinazioni settoriali di più frequente applicazione delle nuove tecnologie.
Di tanto vi è conferma nei diversi documenti pubblicati sino ad oggi e nelle cui premesse si rinvia a presumibili interventi a cura di Autorità e regolatori di ciascun settore, in grado di tener conto delle sfide dell’innovazione tecnologica alla luce delle peculiarità di ogni specifico versante di applicazione.
Esemplificativo in tal senso è il settore finanziario che, inter alia, risulta essere uno di quelli che sta maggiormente sperimentando le diverse tecniche di intelligenza artificiale[4], con riferimento alle quali se per un verso le disamine ricognitive sono tuttora limitate[5], per altro verso gli interventi preannunciati[6] non hanno avuto seguito nei tempi indicati.
La risoluzione delle varie problematiche sollevate dalla tecnologia in questione è stata variamente ricondotta nell’alveo dei framework regolamentari esistenti, che tuttavia in diversi casi risultano manifestamente inappropriati per gestire o mitigare rischi derivanti all’uso di algoritmi predittivi o di apprendimento automatico.
A fronte della palese difficoltà sia dei regolatori, sia di imprese che fanno uso di tecniche di intelligenza artificiale e di machine learning, cominciano ad intravedersi segnali positivi anche con riferimento al settore finanziario, ove la mancanza di risposte univoche e condivise è stata talora colmata da singole iniziative – sotto forma di good practices e di codici di condotta – assunte in ordine sparso dalle Autorità[7] o da organismi a livello internazionale, al fine di incoraggiare un uso etico e responsabile dell’intelligenza artificiale da parte delle istituzioni finanziarie[8].
In questo contesto si inserisce anche la voce levata di recente dalla IOSCO[9] che, confermando una tappa significativa del suo programma di lavoro per l’anno in corso[10], si è addentrata nei meandri dell’intelligenza artificiale e del machine learning applicate ai servizi finanziari prestati dagli intermediari di mercato e dai gestori patrimoniali, lanciando una consultazione su una guida, recante misure di ausilio per i regolatori che si approcciano al tema.
2. Aree di applicazioni dell’intelligenza artificiale e principali problematiche emerse
La guida è stata redatta dal FinTech Network [11] con l’ausilio delle imprese, sia di quelle che fanno uso di applicazioni di intelligenza artificiale, sia di quelle che si sono astenute sinora dal farvi ricorso, frenate principalmente sia dal timore di incorrere in profili di responsabilità per pregiudizi arrecati al cliente o all’integrità di mercato, sia dalla mancanza di competenze specifiche in materia.
Le misure ivi proposte costituiscono difatti il risultato di un processo di indagine articolato in due fasi: una diretta ad esplorare tanto le modalità di utilizzo delle tecnologie in questione nei mercati di capitali, quanto benefici e rischi che potrebbero derivare da questotrend crescente, riservando un focus particolare sui connessi profili etici; l’altra incentrata su un dialogo diretto con l’industria degli intermediari di mercato e dei gestori patrimoniali in funzione di una migliore comprensione e ricognizione delle aree di applicazione ove sono emersi o potrebbero emergere rischi ulteriori rispetto a quelli già identificati.
Così i versanti più promettenti ai fini dell’applicazione dell’intelligenza artificiale e del machine learning si rivelano quelli relativi alle attività di trading e di consulenza, di gestione del rischio e di compliance ove la tecnologia è in grado di aumentare l’efficienza dei processi esistenti con contestuale riduzione dei costi connessi.
Identificazione e monitoraggio del cliente, ottimizzazione della gestione di portafoglio, completamento dei processi decisionali di investimento divengono aree di particolare attenzione, ove l’indicata ricognizione ha registrato i maggiori rischi attinenti ora alla governance interna dell’impresa, ora al processo di sviluppo e testing degli algoritmi sottostanti alle tecnologie in questione, ora alla qualità dei dati utilizzati e agli eventuali pregiudizi dai quali gli stessi siano inficiati, ora alla trasparenza, ora alle problematiche dell’esternalizzazione degli aspetti tecnologici, sino ai profili etici prefigurati soprattutto nei robo advice, ove l’impiego di dati alternativi potrebbe discriminare alcuni segmenti della popolazione.
Rischi tutti che, ove rilevati, sono stati affrontati dalle imprese avvalendosi di un sistema di governance e nel contesto di framework regolamentari identici a quelli adottati per algoritmi tradizionali e più semplici, laddove invece le tecniche di intelligenza artificiale e machine learning richiedono controlli procedurali innovativi, in grado di far fronte a rischi specifici, che attengono all’intero ciclo di vita dei relativi modelli.
3. Le misure proposte dalla IOSCO
La guida proposta dalla IOSCO per la consultazione si articola in sei misure tratte dall’esperienza e dalle good practices adottate da alcune imprese o indicate da taluni regolatori a livello internazionale.
L’implementazione di dette misure, configurate per risolvere uno o più criticità tra quelle previamente identificate, è però soggetta al filtro del principio di proporzionalità che non si esaurisce nella considerazione delle dimensioni dell’impresa, bensì si arricchisce di ulteriori fattori quali l’attività intrapresa, la complessità della medesima, i profili di rischio e il potenziale impatto che la tecnologia potrebbe avere sui clienti e sull’integrità del mercato.
In particolare, le misure proposte possono esse riassunte nei termini di seguito riportati:
Responsabilità del management
Nella prospettiva di definire profili di responsabilità in tutte le fasi di utilizzo delle tecniche di intelligenza artificiale e di machine learning da parte delle imprese, nonché di favorire adeguata comprensione, uso e monitoraggio della tecnologia in questione, coloro che svolgono funzioni apicali assumono la responsabilità – parimenti a quella relativa alle performance complessive dell’impresa – per ogni azione e risultato prodotto dai modelli di intelligenza artificiale e machine learning, ivi inclusi i casi di esternalizzazione a fornitori esterni.
A tal fine le imprese dovrebbero dotarsi di una documentata governance interna, strutturata nei dipartimenti legali, di compliance e di risk management.
Algo-governance
Le misure principali involgono interventi diretti sugli algoritmi di intelligenza artificiale e di machine learning o, più genericamente, di algo-governance, tesi a assicurarne la robustezza in tutto il ciclo di vita, a partire dallo sviluppo e dal successivo testing, sino a monitorarne e validarne su base continuativa i relativi risultati, in modo da verificare la corrispondenza tra le finalità sottostanti ed i risultati ottenuti.
Particolare attenzione le imprese dovrebbero dedicare alla fase ditesting, da considerare in tutte le possibili condizioni di mercato e tale da garantire la conformità con le disposizioni regolamentari in tema di abusi di mercato, protezione dei dati, valutazione dei rischi e sicurezza informatica.
Esternalizzazione e resilienza operativa
Una delle maggiori criticità riscontrate concerne l’eccessiva dipendenza delle imprese da fornitori esterni, a causa della mancanza di adeguate competenze, conoscenze ed esperienze all’interno delle stesse imprese, necessarie per supervisionare la conformità normativa dell’uso delle tecniche di intelligenza artificiale e machine learning in tutto il relativo ciclo di vita.
Al riguardo la guida suggerisce una duplice misura: da un lato quella di creare un team multidisciplinare che includa, tra gli altri, anche le funzioni di risk management e di compliance; dall’altro lato quella di formalizzare contrattualmente – previa operazione di due diligence sia iniziale che continuativa – i profili di responsabilità del soggetto cui siano esternalizzate talune funzioni, in caso di scarse performance[12].
Trasparenza e disclosure
Le imprese dovrebbero informare i clienti in primo luogo in ordine all’uso di algoritmi di intelligenza artificiale e di machine learning, in secondo luogo sulla natura e sulle caratteristiche principali del servizio che stanno prestando, nonché sul tipo di impatto che potrebbero ricevere dall’utilizzo della tecnologia.
A tal fine rileva poi una delle problematiche maggiormente discusse concernente la qualità dei dati utilizzati, ivi incluse le relative fonti e le modalità di elaborazione, che singolarmente o unitamente ad altre variabili, potrebbero essere portatori di pregiudizi tali da condurre a fenomeni discriminatori e nel contempo determinare casi di esclusione finanziaria. Le imprese dovrebbero quindi implementare procedure e sistemi di controllo per i dataset da cui attingono, funzionali ad un’identificazione preventiva e ad una rimozione successiva degli eventuali bias riscontrati.
4. Qualche osservazione conclusiva
La guida proposta per la consultazione riassume per taluni profili i principali termini di riferimento non solo del dibattito in corso in tema di intelligenza artificiale, bensì anche delle iniziative assunte da talune Autorità a livello internazionale, alcune delle quali passate in rassegna negli allegati al report.
Il limite della non vincolatività delle misure proposte non inficia la potenziale e diffusa adozione a livello nazionale da parte dei Paesi membri, invitati dalla IOSCO ad implementarle nel contesto di un framework regolamentare – di nuova introduzione o a seguito di revisione[13] – relativo alle imprese che fanno uso di intelligenza artificiale e machine learning. Applicazioni in ordine alle quali è emersa l’esigenza di definire nuovi e specifici obblighi di condotta e di compliance più confacenti alle caratteristiche delle tecnologie in questione e tali da prevenire e/o mitigare i rischi connessi, in particolare, ai sottostanti algoritmi predittivi e di apprendimento automatico.
Peraltro, in un contesto generale connotato da una moltiplicazione di voci levate in difesa o meno delle potenzialità connesse all’utilizzo dell’intelligenza artificiale, il report della IOSCO, per quanto non esamini l’intero settore finanziario, offrendo solo una prospettiva parziale e circoscritta prevalentemente al versante dell’asset management, rappresenta un significativo passo avanti e, nel contempo, un punto di partenza per ulteriori approfondimenti, ma soprattutto ai fini di un osservatorio permanente esteso anche agli altri settori finanziari ove si stanno registrando o esplorando altri use cases.
[1] Cfr. Comunicazione della Commissione europea su “L’intelligenza artificiale per l’Europa”, COM(2018) 237 final del 25 aprile 2018, https://ec.europa.eu/transparency/regdoc/rep/1/2018/IT/COM-2018-237-F1-IT-MAIN-PART-1.PDF.
[2] Per una ricostruzione delle diverse tappe di un percorso variamente articolato mi sia consentito rinviare a Maria-Teresa Paracampo (a cura di), Big Data, algoritmi e tecnologie emergenti: le applicazioni di intelligenza artificiale nei servizi finanziari, in FINTECH. Introduzione ai profili giuridici di un mercato unico tecnologico dei servizi finanziari,Vol. I, Giappichelli, Seconda edizione riveduta e aggiornata, in corso di pubblicazione, 2020.
[3] Cfr. The European Commission’s High-Level Expert Group on Artificial Intelligence, Ethics Guidelines for Trustworthy AI, 8 April 2019, https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai, seguito di recente da The Assessment List For Trustworthy Artificial Intelligence (ALTAI) for self assessment, 17 July 2020, https://ec.europa.eu/digital-single-market/en/news/assessment-list-trustworthy-artificial-intelligence-altai-self-assessment.
Le conclusioni del gruppo di esperti sono alla base del White Paper On Artificial Intelligence – A European approach to excellence and trust, pubblicato per la consultazione il 19 febbraio 2020 [COM(2020) 65 final], https://ec.europa.eu/info/sites/info/files/commission-white-paper-artificial-intelligence-feb2020_en.pdf.
[4] A livello internazionale una disamina in tal senso, unitamente al grado di diffusione di FinTech, si deve al Financial Stability Institute, Policy responses to fintech: a cross-country overview, FSI Insights on policy implementation No 23, January 2020, www.bis.org.
[5] Il primo intervento ricognitivo è stato effettuato dal Financial Stability Board, Artificial intelligence and machine learning in finanial services. Market developments and financial stability implications, 1 November 2017, https://www.fsb.org/wp-content/uploads/P011117.pdf.
[6] A fornire la notizia in anteprima è stata l’EIOPA che, nel suo Report su BIG DATA ANALYTICS IN MOTOR AND HEALTH INSURANCE: A THEMATIC REVIEW, 2019, 8 May 2019, https://eiopa.europa.eu, ha preannunciato uno specifico intervento intersettoriale a cura del Comitato congiunto delle ESAs.
[7] In tal senso si segnalano, inter alia: Cssf (Commission de Surveillance du Secteur Financier), Artificial Intelligence. Opportunities, risks and recommendations for financial sector, December, 2018, http://www.cssf.lu/fileadmin/files/Publications/Rapports_ponctuels/CSSF_White_Paper_Artificial_Intelligence_201218.pdf; ACPR (Banque De France), Artificial intelligence: challenges for the financial sector, Discussion paper, December 2018, https://acpr.banque-france.fr/sites/default/files/medias/documents/2018_12_20_intelligence_artificielle_en.pdf.
[8] A titolo esemplificativo cfr. MAS (Monetary Authority of Singapore), Principles to Promote Fairness, Ethics, Accountability and Transparency (FEAT) in the Use of Artificial Intelligence and Data Analytics in Singapore’s Financial Sector, 2018, https://www.mas.gov.sg/~/media/MAS/News%20and%20Publications/Monographs%20and%20Information%20Papers/FEAT%20Principles%20Final.pdf; DeNederlandscheBank, General principles for the use of Artificial Intelligence in the financial sector, 2019, https://www.dnb.nl/binaries/General%20principles%20for%20the%20use%20of%20Artificial%20Intelligence%20in%20the%20financial%20sector_tcm46-385055.pdf.
[9] IOSCO, The use of artificial intelligence and machine learning by market intermediaries and asset managers. Consultation Report, CR02/2020 – June 2020, https://www.iosco.org/library/pubdocs/pdf/IOSCOPD658.pdf
[10] Cfr. Board Priorities – IOSCO work program for 2020 – IOSCO/MR/02/2020 Madrid, 30 January 2020, https://www.iosco.org/library/pubdocs/pdf/IOSCOPD648.pdf.
[11] Il Fintech Network è stato creato a maggio 2018 per favorire la condivisione delle conoscenze e delle esperienze tra membri IOSCO.
[12] Il tema è peraltro all’attenzione della IOSCO su altro versante di approfondimento, quello dell’outsourcing, ove sta procedendo all’aggiornamento dei principi esistenti al fine di includervi anche l’esternalizzazione dello sviluppo, del testing e della supervisione sugli algoritmi di intelligenza artificiale e machine learning (cfr. Principles on Outsourcing. Consultation Report, CR01/2020, May 2020, https://www.iosco.org/library/pubdocs/pdf/IOSCOPD654.pdf)
[13] A livello europeo l’occasione di una revisione in chiave digitale della normativa esistente è fornita dall’intervento di “manutenzione” periodica cui è sottoposta Mifid 2, i cui esiti, tenuto conto anche dei concomitanti sviluppi della Strategia per la Finanza Digitale, dovrebbero preludere alla presentazione di una bozza di Mifid 3 entro l’anno in corso.