WEBINAR / 30 Gennaio
Rappresentante designato nelle società quotate alla luce della Legge Capitali


Impatti per le assemblee 2025

ZOOM MEETING
Offerte per iscrizioni entro il 10/01


WEBINAR / 30 Gennaio
Rappresentante designato nelle società quotate alla luce della Legge Capitali
www.dirittobancario.it
Articoli

Tecnologie, mercati e regolazione dell’economia: il caso dell’intelligenza artificiale

15 Ottobre 2024

Giovanni Luchena, Professore ordinario di Diritto dell’economia, Università degli studi di Bari Aldo Moro

Di cosa si parla in questo articolo

[*] SOMMARIO: L’individuazione degli effetti sulla regolazione dell’economia inerenti all’uso dei sistemi di intelligenza artificiale è l’obiettivo principale del presente contributo. L’approvazione dell’AI Act apre una serie di prospettive d’indagine concernenti l’intensità della regolazione e gli obiettivi della medesima, incalzata dalla presenza di players internazionali che detengono significative quote di mercato nel settore. Appare degno di rilievo il fatto che l’esigenza della regolazione nel campo dell’intelligenza artificiale costituisce la ragione fondamentale di un approccio non soltanto economico-giuridico ma anche geopolitico nella prospettiva di rendere l’Unione europea come il maggiore competitor delle grandi Big Tech a livello mondiale. Il contributo si prefigge di individuare, infine, le tecniche di regolazione nel campo dell’intelligenza artificiale aventi a riguardo gli effetti sull’economia e le strategie politico-economiche della Commissione, che persegue l’obiettivo della cosiddetta sovranità digitale europea.

ABSTRACT: The identification of the effects on the regulation of the economy inherent to the use of artificial intelligence systems is the main objective of this essasy. The approval of the AI ​​Act opens up a series of investigative perspectives concerning the intensity of regulation and its objectives, driven by the presence of international players who hold significant market shares in the sector. It seems worthy of note that the need for regulation in the field of artificial intelligence constitutes the fundamental reason for an approach that is not only economic-legal but also geopolitical in the perspective of making the European Union the major competitor of the global Big Techs. Finally, the paper aims to identify the regulatory techniques in the field of artificial intelligence as far as economic effects are concerned. It also highlights the political-economic strategies of the Commission, which pursues the objective of the so-called European digital sovereignty.


1. La velocità con la quale si sviluppano le nuove tecnologie richiede un approccio regolatorio che garantisca una pluralità di soggetti coinvolti dalle produzioni delle medesime e/o dal loro utilizzo, in particolare nel campo dell’intelligenza artificiale che sembra essere uno dei campi nei quali il giuridico (è costretto a) rincorre(re) l’economico[1].

Si tratta, invero, di una tendenza che non riguarda soltanto l’implementazione e l’utilizzo dei sistemi di intelligenza artificiale ma anche, di conseguenza, l’impatto dei medesimi su settori dell’economia come quello dell’ambiente e dell’energia che, soprattutto negli ultimi anni, hanno (ri)acquistato una certa centralità nella regolazione giuridica, sia sovranazionale sia domestica.

La stagione della programmazione dell’economia, d’altro canto, ha prodotto l’accentuazione del fenomeno regolatorio tanto che la fase attuale può essere considerata da un lato, come del consolidamento dell’approccio europeo volto ad entrare sempre di più nelle dinamiche giuridiche, dall’altro, della restituzione allo Stato di una certa intensità regolatoria a presidio del funzionamento di taluni mercati e dell’implementazione del suo ruolo nella programmazione dell’economia (quindi, dal punto di vista promozionale).

Nel caso dell’intelligenza artificiale, sulla quale il legislatore è intervenuto quando già le imprese leader del settore hanno irrobustito la loro posizione nel mercato globale, il tema è particolarmente rilevante, fra l’altro, nel quadro dell’incidenza del regolatore sul presente del mercato e sul futuro del posizionamento europeo.

Tali questioni sono direttamente connesse alle modalità attraverso le quali il legislatore europeo ha strutturato la fisionomia della regolazione dell’economia, o di taluni suoi profili, o comunque degli obiettivi perseguiti dal regolamento europeo sull’intelligenza artificiale, recentemente approvato dopo una lunga gestazione[2], considerata la complessità e l’ampiezza delle situazioni giuridico-economiche ivi disciplinate.

Del resto, l’esigenza della regolazione in un campo come quello dell’intelligenza artificiale si palesa nella sua ineluttabilità in quanto essa si caratterizza per essere una disruptive technology[3] considerata la sua portata, per dir così, inerente, potenzialmente, ad una pluralità di ambiti, attività, situazioni giuridiche soggettive e posizioni giuridiche economicamente rilevanti.

Da tale cambiamento radicale emerge l’orizzonte conformativo del diritto (spesso connotato non dalla creazione di nuove categorie giuridiche ma dall’utilizzo di quelle esistenti) che obbliga i mercati nei quali la tecnologia innovativa è assente o in via di formazione a “rincorrere”, come si diceva poc’anzi, lo sviluppo delle tecnologie da parte dei Paesi c.d. follower in un settore esposto ad enormi profitti e a forte impatto nelle relazioni economiche[4].

Basti pensare ai servizi bancari e a quelli assicurativi[5], alla sua applicazione nel settore turistico[6] o alle problematiche connesse ai diritti di proprietà intellettuale che com’è noto, possono essere attribuiti solo a persone fisiche e giuridiche (il tema è, dunque, quello della individuazione dell’entità creativa), a quello del patrimonio culturale (in termini di ampliamento delle possibilità di fruizione, miglioramento dei servizi e di implementazione delle forme cooperative), all’uso in campo giudiziario[7] o sanitario (ambito clinico, diagnostica, sorveglianza delle malattie infettive, ecc.) e così via, fino a lambire il terreno del neuromarketing «che conduce comportamenti sotto la soglia di consapevolezza personale»[8].

Per tale ragione, nel contesto suindicato, il ruolo del legislatore non può che essere quello di tracciare percorsi di intervento proattivo in termini di formazione di uno spazio unico europeo dell’intelligenza artificiale quale segnale di un’attenzione crescente rispetto a tecnologie ad alto impatto economico e sociale, geopolitico e strategico (basti pensare all’implementazione dei sistemi connessi alla difesa e alla sicurezza nazionale) che importa considerazioni che fanno riferimento sia agli aspetti commerciali globali sia alla tutela dei diritti dei soggetti più vulnerabili sia, infine, alla competitività delle imprese.

Del resto, sotto il profilo teleologico, è l’art. 179 TFUE che indica nello sviluppo tecnologico uno degli obiettivi dell’Unione europea nel quadro della politica industriale, con un’impronta orientata alla collaborazione interna e internazionale e alla più ampia diffusione dei risultati della ricerca. E, su questo versante, la direzione impressa dalle autorità europee sembra seguire il tracciato disciplinare costituito dalla base giuridica contenuta nel trattato di Lisbona (in termini di applicazione del modello economico di riferimento), oltre ad essere diventata, come si diceva poc’anzi, una necessità derivante dal rapido sviluppo delle tecnologie di frontiera.

A tale riguardo, la strategia europea «provides directions on specific, cross-cutting issues such as key technologies like artificial intelligence»[9] in base al principio duale della excellence e trustworthy[10]. Questa è la ragione per cui «Research and innovation investment will help build the capacity to steer the development and anticipate the consequences of such technological advances»[11].

«Plasmare la trasformazione digitale»[12], del resto, costituisce probabilmente il principale obiettivo politico che il Parlamento europeo ha posto dinanzi alla Commissione al fine, tra l’altro, di attivare forme di sviluppo che generino vantaggi in favore delle imprese europee, specialmente nei settori dell’economia circolare, della meccanica, del turismo e di altri settori rilevanti: la crescita della data economy, dunque, rappresenterebbe il completamento delle iniziative in tale settore che vede l’Unione europea occupare significative quote di mercato nella industria digitale e nelle applicazioni business-to-business. E, infatti, per rendere effettivo questo “progetto” le risorse stanziate costituiscono un’importante leva per sostenere le imprese (pubbliche e private) al fine di implementare il settore[13] (come dimostra l’esperienza statunitense e dei Paesi asiatici).

2. La regolazione dell’economia (in generale delle tecnologie di frontiera e, in particolare, quella prevista dall’AI Act) riguarda ed interessa aspetti che attengono a numerosi profili attinenti alle conseguenze economiche scaturenti dalla produzione e dall’utilizzo di sistemi di intelligenza artificiale.

Non può non rilevarsi, innanzitutto, come una delle “preoccupazioni” principali del recente regolamento europeo faccia emergere, fra i suoi scopi precipui, quello della tutela del mercato interno[14], con una serie implicazioni che involgono il posizionamento dell’Unione europea nel mercato mondiale della produzione di sistemi di IA. Con il che si è soliti indicare una duplice visuale: sia dell’efficienza economica sia degli aspetti extraeconomici del mercato e, in qualche caso, anche ultraeconomici (una nuova prospettiva che fa riferimento, per l’appunto, all’uso delle tecnologie innovative per l’ottimizzazione dei processi produttivi, per la riduzione dei costi e per il miglioramento della qualità dei prodotti e dei servizi).

In tal senso, la regolazione europeo è incentrata a tenere insieme sia lo sviluppo delle tecnologie per lo sviluppo dell’economia sia la tutela delle libertà fondamentali[15]. E potrebbe aggiungersi che la prospettiva extraeconomica attiene altresì agli aspetti legati alla tutela dei diritti sociali con conseguenze dirette non soltanto sulle amministrazioni pubbliche ma anche sulle imprese in termini di responsabilità sociale: i sistemi di IA utilizzati nel settore pubblico impongono una «responsabilità digitale»[16] delle imprese, quale portato della più ampia Corporate Social Responsability, alla luce degli effetti sociali che l’utilizzo dei sistemi di IA possono produrre nel momento nel quale le imprese utilizzano dati e tecnologie. Oltre tutto, l’approccio, non solo quello eticamente responsabile ma anche giuridico, assume una portata maggiore a seguito dell’approvazione della direttiva n. 1760 del 13 giugno 2024 che, per l’appunto, delinea il quadro della regolazione spostandolo dalla dimensione prettamente volontaristica a quella più propriamente giuridica, almeno per quanto attiene agli obblighi statali, a maggior ragione in un settore dominato dal rischio com’è quello dell’intelligenza artificiale, in chiave trasformativa involgente cioè la comprensione e l’adattamento delle attività dell’impresa alle dinamiche macro-sistemiche. L’impianto disciplinare ha cura, fra l’altro, di tenere in considerazione le nuove tecnologie avendo a riferimento l’impatto attuale o potenziale delle medesime allorquando le imprese avviano attività economiche in nuovi mercati e aree geografiche o convertono ad altro settore le loro attività imprenditoriali per il tramite dell’uso delle nuove tecnologie.

L’Unione europea si propone di svolgere un ruolo da leader nel campo della intelligenza artificiale e, dunque, si autocandida quale soggetto, per dir così, rilevante nel mercato, anche se, sotto certi aspetti, sembrerebbe agire in chiave difensiva non essendo l’Unione europea un’entità fra le più accorsate quale produttore di sistemi di IA.

L’erompere dell’IA ha innescato un processo definibile “rivoluzionario” (si parla, a tale proposito, di quarta rivoluzione industriale[17] come teorizzata dal citato Klaus Schwab in termini di crescita esponenziale del livello di interconnessione generata dalle tecnologie[18]) in quanto la sua presenza è oggi un elemento che involge una serie di settori economici, oltre che profili etici di rilevanza basica con riferimento all’uso dei sistemi, che implica la scelta di un modello di regolazione nel quale non appare più sufficiente la regolazione nazionale e probabilmente neppure quella dell’Unione europea, trattandosi di aspetti di natura globale difficilmente eludibili.

Sta di fatto che lo stesso regolamento dell’UE produce i suoi effetti non soltanto nel mercato interno ma anche per l’appunto in quello globale – cioè sulle imprese di paesi terzi[19] – avendo la sua regolamentazione una proiezione internazionale resa evidente dal fatto che la posizione di mercato dell’Europa non è paragonabile a quella né degli Stati Uniti d’America né della Cina.

La prima, madre delle grandi imprese tecnologiche, utilizza un approccio regolatorio assai sfumato, se non assente, quale conseguenza della tradizione giuridica di quel Paese fondato sulla self-regulation. Si tratta di un modello di regolazione definibile residuale che si fonda su una sorta di diritto naturale delle imprese ad autodeterminare le proprie regole. E, in più, la strategia del decisore politico è orientata a far prevalere le politiche di espansione delle grandi industrie tecnologiche di quel Paese ponendo in essere, di fatto, politiche protezionistiche[20] che sembrerebbero essere lontane dal modello economico di riferimento che, com’è noto, predilige la tutela del mercato aperto e in libera concorrenza e, dunque, un modello che non dovrebbe lasciare spazio a politiche domestiche di protezione del mercato interno. Eppure è proprio nel Paese dell’ultraliberismo e dell’anarcocapitalismo che l’intervento statale a finalità protezionistiche si è fatto strada in maniera alquanto decisa non solo considerando le ultime misure introdotte dall’amministrazione Biden ma anche osservando storicamente il forte impulso dato da vari governi federali al sostegno pubblico alle imprese per lo sviluppo tecnologico. Si tratta della ben nota politica che presenta elementi dello sviluppismo, nel senso cioè dell’instaurazione di un modello che vede nel rafforzamento e nella cooperazione fra soggetti pubblici (lo Stato, in primis) e l’impresa, in un contesto capitalista e concorrenziale, il motore dello sviluppo economico in un processo dinamico di interazione nel quale emergano e si consolidino i rispettivi ruoli (in tal caso, non consideriamo le specifiche differenze fra singoli Paesi dove la forma di Stato può essere democratica ovvero autoritaria). In sintesi, l’approccio statunitense potrebbe essere assimilato a talune modalità operative nel campo dell’intervento pubblico tipiche dello Stato sviluppista nel quale si realizza la formula cooperativa pubblico-privata per tenere insieme lo Stato, le imprese e la società civile il cui connubio è sorretto da fondamenta istituzionali costituite per dar vita ad uno sviluppo economico a lungo termine[21].

La seconda, al contrario, adotta un metodo di regolazione definibile centralizzato e a struttura verticale (command and control) che punta a realizzare un meccanismo di controllo del potere delle compagnie, oltre che, naturalmente, del mercato medesimo: si tratta, in definitiva, di set di regole volte a controllare non soltanto gli effetti delle pratiche derivanti dall’utilizzo dell’intelligenza artificiale ma anche a indirizzare le scelte di investimento. Norme che hanno sì una valenza tecnica ma anche giuridico-politica perché la prospettiva è quella di esercitare un controllo per limitare il potere delle suddette compagnie come prevedono, ad esempio, le recenti leggi di quel Paese sulla sicurezza dei dati, sulla Personal Information e quella sulla Cybersecurity[22].

Sulla linea mediana si colloca la normativa dell’Unione europea[23] che, come precedentemente accennato, ha l’ambizione di svolgere un ruolo dominante nello scenario globale con un obiettivo forse a lei stessa estraneo, almeno fino a questo momento, cioè realizzare un cambio di impostazione consistente nello «spostamento dalla tecnologia alle regole»[24]. Si registra un cambio di passo in ambito europeo considerato come la legislazione UE sia stata, per dir così, allineata a quella degli Stati Uniti rispetto, ad esempio, al tema della irresponsabilità degli intermediari digitali[25].

Si evidenzia un profilo d’interesse che attiene al rapporto tra nuove tecnologie[26] e regolazione, oggetto di una rinnovata attenzione negli ultimi anni in considerazione dell’esplosione di talune di esse e della necessità di prevedere forme di regolamentazione che operino sia in funzione di controllo delle possibili criticità derivanti dal suo utilizzo sia d’impostare un corpo di regole in funzione della prevedibilità di talune circostanze potenzialmente lesive dei diritti fondamentali, sia, infine, di indirizzare il sostegno economico delle imprese verso l’innovazione tecnologica senza sconfessare l’impostazione originaria del principio del mercato aperto e in libera concorrenza.

L’Unione europea, come certifica la Banca europea per gli investimenti nella sua relazione relativa al 2018-2019, non tiene il passo con la concorrenza mondiale, anche a causa delle scarse attività di ricerca e sviluppo svolta dalle imprese[27]. In tale contesto, vengono in rilievo le disposizioni contenute nella disciplina sugli aiuti alla ricerca, sviluppo e innovazione tecnologica che, nell’ambito delle possibili attività di sostegno a favore delle imprese, si rivolgono a quelle attività, fra le quali quelle inerenti all’intelligenza artificiale, rivolte allo sviluppo sperimentale come «l’acquisizione, la combinazione, la strutturazione e l’utilizzo delle conoscenze e capacità esistenti di natura scientifica, tecnologica, commerciale e di altro tipo allo scopo di sviluppare prodotti, processi o servizi nuovi o migliorati, compresi i prodotti, processi o servizi digitali, in qualsiasi ambito, tecnologia, industria o settore» o ancora nell’ambito della ricerca industriale in termini di «ricerca pianificata o indagini critiche miranti ad acquisire nuove conoscenze e capacità, da utilizzare per sviluppare nuovi prodotti, processi o servizi o apportare un notevole miglioramento ai prodotti, processi o servizi esistenti, compresi prodotti, processi o servizi digitali in qualsiasi ambito, tecnologia, industria o settore»[28]. Del resto, lo stesso AI Act considera in modo positivo il sostegno economico alle PMI e, in particolare alle start-up[29], le quali peraltro, ai fini della concessione dei finanziamenti, non sono soggette all’obbligo della notifica preventiva costituendo una delle ipotesi previste dal GBER (Regolamento sulle esenzioni per determinate categorie di aiuti orizzontali[30]) per le quali la Commissione accorda agli Stati un certo favor ai fini della concessione di interventi di sostegno delle imprese (ma che non esclude controlli successivi in ragione, ad esempio, di una denuncia da parte di terzi).

3. Il concetto di «adeguata regolazione»[31] – che costituisce l’approccio della good regulation su base europea prevalentemente rivolta all’economic rationale[32] – riguarda sia ai «limiti» e alle «direttrici di uno sviluppo apparentemente irreversibile»[33] che attiene alla «priorità dell’umano»[34] sia alla latitudine dell’intervento normativo in ordine agli sviluppi della tecnologia e in relazione alla sfera d’intervento pubblico in termini di elasticità o di rigidità delle proposizioni contenutistiche.

L’adeguatezza della regolazione, dunque, può svilupparsi in termini più o meno ampi, diminuiti o semplicemente proclamati, vaghi o dettagliati, ecc. in relazione al ruolo che lo Stato e, in generale, gli attori pubblici (sovranazionali e globali) svolgono nell’economia.

Così, nel campo dell’intelligenza artificiale l’adeguata regolazione, per quel che concerne il suo impatto sull’economia, può avere differenti modalità di approccio.

L’AI Act, ad esempio, prevede una serie di disposizioni inerenti alla regolazione economica che fanno riferimento alle tecniche tradizionali utilizzate dall’Unione europea consistenti nella previsione di controlli o di ordini al fine di influenzare i players del mercato europeo ma, soprattutto, la regolazione sembra inserirsi in un solco regolatorio che vede l’Unione europea sempre più protagonista nella regolazione pubblica. Anzi, potrebbe dirsi che l’AI Act si collochi a pieno titolo in una scìa che ha come obiettivo la regolamentazione di fenomeni complessi derivanti dell’implementazione delle nuove tecnologie nelle quali il mercato europeo appare “subire”, per così dire, la spinta delle imprese globali del settore.

Va rilevato, in ogni caso, come la regolazione sia complessa con elementi di varia natura fra i quali gli strumenti tipici del command and control (regolazione diretta), procedure dettagliate, valutazioni (impatto sui diritti fondamentali), monitoraggio.

Invero, se nella teorica della regolazione questo può comprimere le politiche d’incentivazione economica, nel caso delle tecnologie di frontiera la “missione” delle autorità europee (e nazionali) è quella della regolazione per incentivi attraverso la quale il regolatore indirizza una determinata politica per implementare, come nel caso delle tecnologie, ricerca, sviluppo e innovazione. In questo senso, la regolazione, nel caso dei sistemi normativi basati sul rischio, si fonda sul bilanciamento degli interessi coinvolti, cioè tutela dei diritti e impulso all’innovazione.

4. L’espressione «sovranità digitale europea», utilizzata anche nel quadro delle politiche relative all’IA, indica una prospettiva cosmopolitica e antisovranista all’interno dell’UE considerato che, in particolare in questo campo, l’isolazionismo può essere foriero di difficoltà dal punto di vista della costruzione del mercato concorrenziale del digitale e delle tecnologie di frontiera.

In definitiva, il tentativo è quello di riarticolare il potere digitale all’interno dell’UE quale “terza via” tra la self-regulation e l’accentramento. La «sovranità digitale» ha un significato che opera, per così dire, per sottrazione: le spinte interne volte a proteggere gli Stati dalle “intrusioni tecnologiche” foriere di rischi e di incertezze (giuridiche ed economiche) e la protezione delle stesse imprese dall’erompere delle tecnologie dell’intelligenza artificiale (come lo stesso AI Act enuncia[35]) può essere intesa anche secondo un’altra visuale caratterizzata da una concezione della sovranità digitale come ambito di qualificazione di un percorso giuridico di respiro europeo, sottraendo, dunque, agli Stati i tentativi di polarizzazione isolazionista in termini di imposizione di regole «sulle attività e sull’economia della rete, persino se transnazionali e globali»[36]; si spiega, così, anche l’utilizzo del regolamento quale strumento di armonizzazione.

Esigenze di sviluppo economico e capacità di innovazione spiegano l’insistenza sul tema della sovranità digitale europea quale formula politica di sostegno al progetto giuridico, proprio del regolamento IA, consistente nell’uniformare la legislazione ai valori, ai principi e ai diritti fondamentali dell’Unione. Non solo, ma l’intelligenza artificiale può «fornire vantaggi competitivi fondamentali alle imprese e condurre a risultati vantaggiosi sul piano sociale e ambientale, ad esempio in materia di assistenza sanitaria, agricoltura, sicurezza alimentare, istruzione e formazione, media, sport, cultura, gestione delle infrastrutture, energia, trasporti e logistica, servizi pubblici, sicurezza, giustizia, efficienza dal punto di vista energetico e delle risorse, monitoraggio ambientale, conservazione e ripristino della biodiversità e degli ecosistemi, mitigazione dei cambiamenti climatici e adattamento ad essi»[37].

Si tratta di un approccio post-vesfaliano, nell’ambito della cui teorica viene in evidenza l’apertura alle culture dei singoli Stati e alla tutela delle differenze, che segna una torsione non trascurabile nei confronti delle istanze di “protezione statuale” delle dinamiche economiche.

Si riscontra, dunque, un tipologia di regolazione mista o comunque contaminata da istanze di protezione del proprio posizionamento sul mercato (come nel ricordato caso degli Stati Uniti d’America) e da prospettive di crescita e di sviluppo delle tecnologie a fini economici e sociali.

Oltre tutto, vengono in evidenza i presupposti del cosiddetto costituzionalismo digitale[38] il cui costrutto teorico pone in luce la prospettiva dei limiti al potere dei grandi agglomerati digitali, peraltro non collocati sul territorio dell’UE ma che nell’UE operano attraverso l’attività lobbistica[39].

In tale contesto, il regolamento IA rappresenta un potenziale (ma forse solo illusorio) limite al potere delle corporation che possono influenzare le vite dei cittadini/consumatori europei e le economie dei Paesi membri. La sovranità in quanto espressione del potere assoluto e perpetuo[40] modula il suo esercizio in funzione di un obiettivo di carattere europeo, in ossequio alla trama teorica habermasiana della sovranità condivisa che proprio nell’ambito delle nuove tecnologie, e in particolare dell’IA, trova una immediata formula consensuale nella sua applicazione concreta.

Se la c.d. sovranità digitale possa rappresentare l’avvio per la realizzazione di un nuovo percorso di regolazione finalistica è una questione che appare di difficile determinazione considerando che, dal punto di vista normativo, il modello economico europeo di riferimento, il sistema di attribuzione delle competenze e il crescente ruolo dell’Unione europea nell’ambito delle politiche industriali globali e così via sembrano non consentire di percorrere una via tangenziale.

 

* Il testo riproduce la relazione al Convegno indetto dal Dipartimento di Giurisprudenza dell’Università degli studi di Cagliari “Verso un diritto dell’intelligenza artificiale: lezioni apprese e sfide future”, 13-14 settembre 2024.

[1] G. Zaccaria, Mutazioni del diritto: innovazione tecnologica e applicazioni predittive, in Ars Interpretandi, n. 1, 2021, 31.

[2] Regolamento (UE) 2024/1689 del Parlamento europeo e del Consiglio del 13 giugno 2024 che stabilisce regole armonizzate sull’intelligenza artificiale e modifica i regolamenti (CE) n, 300/2008, (UE) n. 167/2013, (UE) n. 168/2013, (UE) 2018/858, (UE) 2018/1139 e (UE) 2019/2144 e le direttive 2014/90/UE, (UE) 2016/797 e (UE) 2020/1828 (regolamento sull’intelligenza artificiale).

[3] K. Schwab, La quarta rivoluzione industriale, Milano, 2016. V., inoltre, Directorate-General for External Policies – Policy Department (European Parliament, Current and Emerging Trends in Disruptive Technologies: Implications for the Present and Future of EU’s Trade Policy, Brussels, 2017, 2.

[4] G. Zaccaria, op. cit., 29-30.

[5] V. Falce, Verso l’Open finance, in V. Falce, U. Morera (a cura di), Dall’open banking all’open finance. Profili di diritto dell’economia, Torino, 2024, 1 ss.; S. Firpo, M. Rabitti, Digital financial strategy tra regole e mercato, ivi, 86 ss.; S. Landini, Circolazione dei dati, data analytics e tool di intelligenza artificiale nel settore assicurativo, ivi, 95 ss.

[6] S. Landini, Sustainable Tourism Contracts, Torino-Cham, 2021, 185.

[7] Su cui, da ultimo, L. Rodio Nico, Efficienza della giustizia e intelligenza artificiale. Profili di diritto dell’economia, Bari, 2024.

[8] G. Zaccaria, op. cit., 30.

[9] European Commission, Annex to the Commission Implementing Decision adopting the 2025-2027 research and innovation strategic plan under the Specific Programme implementing Horizon Europe – The Framework Programme for Research and Innovation, Brussels, 20.3.2024 C(2024) 1741 final, 7.

[10] European Commission, Annex to the Commission Implementing Decision adopting the 2025-2027 research and innovation strategic plan, cit., 15, ma già in Commission Decision of 24th January 2024 establishing the European Artificial Intelligence Office, cit., art. 2.

[11] European Commission, Annex to the Commission Implementing Decision adopting the 2025-2027 research and innovation strategic plan, cit., 58.

[12] Comunicazione della Commissione al Parlamento europeo, al Consiglio, al Comitato economico e sociale europeo e al Comitato delle regioni, Plasmare il futuro digitale dell’Europa, COM/2020/67 final

[13] A titolo di esempio, valga sottolineare l’investimento di 250 milioni previsti dal Next Generation EU per dare impulso alla digitalizzazione. Si pensi, inoltre, al progetto paneuropeo Digital Europe che prevede investimenti per oltre 9,2 miliardi di euro nel quadro del più ampio progetto del “Mercato unico, innovazione e agenda digitale”.

[14] Regolamento (UE) 2024/1689 del Parlamento europeo e del Consiglio del 13 giugno 2024, art. 1.

[15] G. Contaldi, La proposta di regolamento sull’intelligenza artificiale e la protezione dei dati personali, in G. Caggiano, G. Contaldi, P. Manzini (a cura di), Verso una legislazione europea su mercati e servizi digitali, Bari, 2021, 207 ss.

[16] N. Abriani, G. Schneider, Diritto delle imprese e intelligenza artificiale. Dalla Fintech alla Corptech, Bologna, 2021, 63.

[17] A. Rangone, Comprendere e governare la quarta rivoluzione industriale. Valore, etica e centralità dell’uomo nella dottrina economico aziendale, Torino, 2022, 6.

[18] K. Schwab, op. cit., 15.

[19] Regolamento (UE) 2024/1689 del Parlamento europeo e del Consiglio del 13 giugno 2024, art. 2.

[20] L. Fabiano, Il Liberal-protezionismo digitale statunitense fra difesa della leadership nel mercato tecnologico e sicurezza nazionale, in DPCE-online, n. 3, 2023, 2339.

[21] Y. Takagi, V. Kanchoochat, T. Sonobe, Introduction: The Nexus of Developmental Policy and State Building, in Iid. (eds.), Developmental State Building. The Politics of Emerging Economies, Singapore, 2019, 1 ss., passim.

[22] G. Finocchiaro, Intelligenza artificiale. Quali regole?, Bologna 2024, 107 ss.

[23] N. Abriani, G. Schneider, op. cit., 17.

[24] G. Finocchiaro, op. cit., 109.

[25] L. Fabiano, op. cit., 2337.

[26] L. Rodio Nico, A. Signorino Barbat, Public support to undertaking for environmental protection and for new technologies, in Open Review of Management, Banking and Finance, 20th December 2023.

[27] Infatti, «gli investimenti dell’UE in R&S rimangono stabili al 2% del PIL, quota recentemente raggiunta dalla Cina e inferiore alla spesa negli USA (2,8%). La differenza è in gran parte imputabile alle attività di R&S in ambito aziendale, pari all’1,3% del PIL nell’UE e al 2% negli USA. Per poter raggiungere l’obiettivo dell’UE in materia di R&S, ovvero il 3% del PIL entro il 2020, bisognerebbe investire 140 miliardi di EUR in più all’anno. Nel contempo i dati EIBIS mostrano che le imprese statunitensi hanno destinato il 48% degli investimenti totali, contro il 36% nell’UE, agli attivi immateriali nel loro complesso: cfr. Banca europea per gli investimenti, Relazione sugli investimenti 2018-2019. Nuovi strumenti per l’economia dell’Europa, 16, reperibile online al sito: http://www.bei.org/investment-report.

[28] Comunicazione della Commissione, Disciplina degli aiuti di Stato a favore di ricerca, sviluppo e innovazione, Bruxelles, 19.10.2022 C(2022) 7388 final, punto 1.3, lett. k) e r).

[29] Regolamento (UE) 2024/1689 del Parlamento europeo e del Consiglio del 13 giugno 2024, cit., considerando n. 8.

[30] Regolamento (UE) n. 651/2014 della Commissione del 17 giugno 2014 che dichiara alcune categorie di aiuti compatibili con il mercato interno in applicazione degli articoli 107 e 108 del trattato.

[31] M. Zanichelli, L’intelligenza artificiale e la persona: tra dilemmi etici e necessità di regolazione giuridica, in Teoria e critica delle regolazione sociale, n. 2, 2021, 141.

[32] J.-U. Franck, K. Purnhagen, Homo Economicus, Behavioural Sciences, and Economic Regulation: On the Concept of Man in Internal Market Regulation and its Normative Basis, in K. Mathis (ed.), Law and Economics in Europe. Foundations and Applications, Dordrecht, 2014, 332.

[33] M. Zanichelli, op. cit., 141.

[34] M. Zanichelli, op. cit., 149.

[35] Regolamento(UE) 2024/1689 del Parlamento europeo e del Consiglio del 13 giugno 2024, cit., considerando n. 2.

[36] S. Mangiameli, La sovranità digitale, in Dirittifondamentali.it, n. 3, 2023, 17 ottobre 2023, 280.

[37] Regolamento (UE) 2024/1689 del Parlamento europeo e del Consiglio del 13 giugno 2024, cit., considerando n. 4.

[38] T.E. Frosini, Il costituzionalismo nell’età tecnologica, in Dir. inf., n. 1, 2020, 465 ss.; M. Santaniello, Sovranità digitale e diritti fondamentali: un modello europeo di Internet governance, in Riv. it. inf. dir., n. 1, 2022, 47 ss.; V. Cavani, Nuovi poteri, vecchi problemi. Il costituzionalismo alla prova del digitale, in Dir. pubbl. comp. eur., n. 1, 2023, 223 ss.; O. Pollicino, Di cosa parliamo quando parliamo di costituzionalismo digitale?, in Quad. cost., n. 3, 2023, 569 ss.

[39] M. Santaniello, Sovranità digitale e diritti fondamentali: un modello europeo di internet governance, in Riv. It. Inform. Dir., n. 1, 2022, 47 ss.

[40] S. Mangiameli, op. cit., 282.

Di cosa si parla in questo articolo
Vuoi leggere la versione PDF?

WEBINAR / 30 Gennaio
Rappresentante designato nelle società quotate alla luce della Legge Capitali


Impatti per le assemblee 2025

ZOOM MEETING
Offerte per iscrizioni entro il 10/01


WEBINAR / 06 Febbraio
AI Act: primi adempimenti per gli operatori


Presidi di governance e controllo per l'uso dell'Intelligenza Artificiale

ZOOM MEETING
offerte per iscrizioni entro il 17/01

Iscriviti alla nostra Newsletter