LE NUOVE SFIDE DELL’INTELLIGENZA ARTIFICIALE. PROPRIETÀ INTELLETTUALE, ETICA E SOGGETTIVITÀ GIURIDICA

1. Introduzione

Il termine “Intelligenza Artificiale” (IA) viene generalmente adoperato per indicare quei “… sistemi che mostrano un comportamento intelligente analizzando il proprio ambiente e compiendo azioni, con un certo grado di autonomia, per raggiungere specifici obiettivi…[1]. Le IA sono destinate a ricoprire un ruolo crescente nella società del terzo millennio, determinando la progressiva automatizzazione dei processi e del funzionamento di un numero esponenziale di settori. La loro integrazione in diverse soluzioni tecnologiche può portare, ad esempio, alla diminuzione degli incidenti stradali, ad un impiego più ponderato delle risorse scarse quali l’energia e l’acqua, alla riduzione dell’uso dei pesticidi in agricoltura, al potenziamento della competitività del settore manifatturiero e, in ambito sanitario, ad una sempre maggiore precisione nella chirurgia e nella tele-chirurgia[2], e alla produzione di nuove molecole e nuovi materiali biochimici. Queste ipotesi sono avvalorate da stime recenti[3] secondo le quali, già da qui al 2020, il mercato delle soluzioni di robotica e di IA aumenterà di dimensione fino a raggiungere il valore di 142 miliardi di euro, con un impatto economico combinato dell’automazione delle conoscenze e del lavoro, della robotica e dei veicoli autonomi che, entro il 2025, dovrebbe raggiungere valori compresi tra 6.500 e 12.000 miliardi di euro all’anno. 

L’intelligenza artificiale abbraccia una vasta serie di branche quali l’informatica cognitiva (cognitive computing), che si occupa dei software e hardware che replicano il funzionamento del cervello umano per migliorare i processi decisionali; oppure l’apprendimento automatico (machine learning), finalizzato alla costruzione di modelli induttivi basati su campioni ottenuti tramite algoritmi capaci di apprendere da un insieme di dati e di formulare predizioni e output completamente nuovi; oppure ancora l’intelligenza potenziata (augmented intelligence), focalizzata sul ruolo di supporto delle IA secondo la tesi per la quale queste svolgono una funzione di incremento dell’intelligenza umana piuttosto che di sua sostituzione. L’obiettivo comune delle attività di ricerca e sviluppo nel campo dell’IA è quello di automatizzare e velocizzare i comportamenti intelligenti, ossia l’insieme delle attività sino ad ora ritenute peculiari dell’essere umano quali la capacità di ragionare, di raccogliere informazioni, di pianificare, di apprendere, di comunicare, di manipolare, di rilevare o addirittura di creare, percepire e sognare. 

Attualmente, un’IA viene generalmente classificata come narrow oppure general, in base alla tipologia delle mansioni più o meno specializzate che il sistema può compiere. Mentre nel primo caso si tratta di incarichi specifici, nel secondo ci si dirige verso processi complessi assimilabili a quelli effettuati dal cervello dell’essere umano. In questi ultimi anni, nell’ambito delle IA narrow sono stati compiuti formidabili progressi grazie all’aumento della potenza di elaborazione computazionale, alla disponibilità di grandi volumi di dati e allo sviluppo dell’apprendimento automatico. Quest’ultimo, in particolare, si serve di algoritmi in grado di far apprendere alle macchine mansioni specifiche per le quali esse non erano originariamente programmate tramite il trattamento di training data, tramite i quali il sistema impara a riconoscere dei modelli e a ricavare delle regole. Una peculiare forma di apprendimento automatico è rappresentata dal cosiddetto deep learning, che utilizza determinate architetture di sistema in cui, a diversi livelli di rappresentazione, corrispondono gerarchie di concetti. I concetti di alto livello vengono definiti sulla base di quelli di livello inferiore tramite meccanismi di allenamento e feedback.  Quest’evoluzione ha fatto in modo che i sistemi di IA siano in sempre più casi in grado di apprendere da soli e di operare in maniera autonoma e adattativa, in definitiva, senza l’apporto umano. Come si pone il mondo del diritto di fronte a questo formidabile scenario?

2. Opportunità di una regolamentazione?

Nella propria pianificazione strategica, le imprese più avanzate già si basano sui dati raccolti attraverso le IA e, al fine di elaborarli, si servono di software di Customer Relationship Management (CRM)[4]. L’utilizzo di questi software, tuttavia, espone gli utenti a problematiche di protezione dei dati personali, con immediata necessità di una regolamentazione, a cui è possibile pervenire anche guardando ad altri ambiti. Si pensi, ad esempio, alle IA con capacità creative[5] che, tramite la propria attività, potrebbero violare il copyright altrui, oppure giungere alla creazione di un’opera i cui diritti d’autore o di sfruttamento economico sarebbero di incerta soggettività giuridica. La connessa problematica dei profili di responsabilità e di quelli etici[6] delle IA è anch’essa di grande complessità, di fronte alla probabile insufficienza degli istituti e delle categorie tradizionali per farvi fronte.

Una rappresentazione efficace di questo aspetto è quella del cosiddetto “problema del carrello ferroviario”[7], in cui un’IA viene messa di fronte a due differenti scelte entrambe comportanti perdita di vite umane: in questo caso, ci si chiede come l’IA possa selezionare il risultato moralmente più accettabile, e come programmarla affinché ciò accada nella massima misura possibile.

Infine, sebbene l’uso diffuso di IA non sia necessariamente destinato a ridurre i posti di lavoro, le mansioni meno qualificate nei settori ad alta intensità di manodopera saranno maggiormente esposte all’automazione, con potenziali conseguenze occupazionali.

Nelle successive sezioni, verrà discusso il potenziale impatto che l’impiego di IA potrebbe avere rispetto a diverse tematiche giuridiche. In particolare, ci si soffermerà sui cosiddetti Big Data, sulla responsabilità per danni, sui diritti di proprietà intellettuale e, più in generale, su diversi aspetti di diritto europeo.

3. IA e Big Data

In data 23 ottobre 2018, si è tenuta a Bruxelles la quarantesima Conferenza internazionale dei Garanti della Privacy e della Protezione dei dati Personali (“la Conferenza”). In tale occasione è stata approvata la Dichiarazione sull’Etica e la Protezione dei Dati nell’Intelligenza Artificiale [8].

È stato, infatti, riconosciuto che lo sviluppo delle IA mette sempre più a rischio il rispetto della privacy e la protezione dei dati personali. Le macchine di apprendimento automatico, e l’IA più in generale, si basano su vaste quantità di dati personali e impattano inevitabilmente sulla loro protezione; perciò, durante la Conferenza è stata sottolineata l’importanza del rispetto dei principi di dignità umana e di non discriminazione. L’evento si è concluso con l’elaborazione di sei principi-cardine per uno sviluppo delle IA rispettoso dei diritti fondamentali.

Il primo principio è quello di equità, da intendersi come necessità che l’IA sia sviluppata coerentemente con le aspettative ed i propositi originali, e così da impedire utilizzi deviati o non conformi dei dati e garantire un impiego mirato allo sviluppo dell’essere umano. Il secondo comporta una continua attenzione volta a tenere sotto controllo gli effetti e le conseguenze dell’utilizzo; in particolare, sarà importante investire nella sensibilizzazione e nell’educazione diffusa. Il terzo principio insiste sul necessario miglioramento della trasparenza e comprensibilità delle IA, mentre il quarto invita ad adottare un approccio etico sin dalla fase di progettazione dei sistemi. In altre parole, l’IA dovrebbe essere sviluppata in modo responsabile, attraverso soluzioni tecniche ed organizzative che garantiscano già nella fase di progettazione il rispetto della privacy e dei dati personali; a tal proposito, l’impatto delle IA sugli individui e sulla società dovrà essere documentato sin dalle prime fasi. Il quinto principio auspica una maggiore responsabilizzazione nel rispetto dei diritti umani fondamentali. Infine, viene evidenziata la necessità di ridurre i pregiudizi e le discriminazioni associati all’impiego di dati da parte delle IA. 

4. IA e responsabilità per danni

Nel contesto delle IA, il problema dell’imputazione della responsabilità per eventuali danni causati da parte di software capaci di azione autonoma in circostanze complesse riveste importanza fondamentale.

Sebbene le tecnologie che si servono di IA non siano ancora universalmente diffuse, le implicazioni legali del loro utilizzo sono già notevoli. La Commissione Europea ha pubblicato in materia una Comunicazione[9] e il relativo Staff Working Document nel 2018[10]. In tali atti, si sottolinea come la legislazione europea già preveda una normativa sulla sicurezza dei prodotti e la responsabilità derivante da prodotto difettoso imputabile al produttore (Product Liability Directive)[11], che si occupa però solo dell’ipotesi in cui un prodotto provochi un danno ai consumatori o ai loro beni a causa di un difetto riconducibile al suo produttore. Secondo la Direttiva, la responsabilità imputabile al produttore[12] è di natura extracontrattuale; tuttavia, questa disciplina armonizzata coesiste con le singole normative nazionali e non osta all’adozione di modelli di responsabilità contrattuale o di diversa natura per disciplinare lo stesso fenomeno[13].

Il problema, però, si pone nel momento in cui il danno non sia conseguenza di un difetto del prodotto riconducibile al produttore o ad un suo uso scorretto. Inoltre, ai fini dell’imputabilità della condotta, ci si deve chiedere se e come rilevi la possibilità di evitare preventivamente la produzione del danno.

Vi sono, poi, problemi dogmatici e sistematici a monte da affrontare, giacché solitamente si esclude che possa essere riconosciuta personalità giuridica in capo ad un software con necessaria riconduzione della responsabilità alla sfera giuridica dell’utilizzatore oppure del produttore[14].

Questa analisi di primo livello, tuttavia, è destinata a rivelarsi inadeguata se applicata ai software che operano secondo logiche di IA, in agenti con autonomia. Una soluzione potrebbe consistere nell’adattare le norme vigenti in materia di responsabilità vicaria combinate con quelle in materia di custodia, oppure gli istituti del mandato o della rappresentanza, declinandoli secondo le nuove esigenze. Oppure, si potrebbero concepire nuovi paradigmi di responsabilità oggettiva o quasi oggettiva, e/o nuove forme di distribuzione dell’onere della prova.

Infine, si dovrà tener conto del fatto che un elaboratore elettronico opera sempre seguendo algoritmi, ovvero sequenze di prescrizioni e istruzioni indicanti in modo non ambiguo i passi da compiere per risolvere correttamente un problema in un tempo finito[15]. Di conseguenza, anche se dotato di IA, il programma segue una logica propria necessariamente riferita ad algoritmi creati dall’uomo, il quale dà al software delle strutture per applicare un certo procedimento logico. Ciò, tuttavia, non esclude a priori che un software di IA possa agire in modo imprevedibile; che anzi, questo scenario diviene probabile qualora l’algoritmo contempli variabili e meccanismi di combinazione sempre più numerosi.

5. IA e proprietà intellettuale 

Lo sviluppo delle IA solleva profili inesplorati rispetto ai tradizionali modelli di tutela delle opere dell’ingegno e delle invenzioni. Il problema non si pone nel caso in cui sia l’autore a creare l’opera servendosi di un software, in quanto quest’ultimo risponderebbe agli input inseriti dal primo. Diverso è, invece, il caso dei programmi operanti con IA di tipo “neurale”, in grado di elaborare autonomamente degli output che prescindono in tutto o in parte dagli input inseriti da persone fisiche; ci si chiede, allora, se possa essere riconosciuta protezione di proprietà intellettuale a tali output.

In termini generali, per la concessione di tutela sull’invenzione, quest’ultima non deve risultare “… in modo evidente dallo stato della tecnica [per una persona del mestiere…[16], che dispone delle capacità e dei mezzi per lavori di routine e nuove sperimentazioni. Ci si chiede se questa definizione sia idonea a ricomprendere anche le tecnologie dell’IA. 

Nell’assenza di norme specifiche di diritto positivo, la brevettabilità sembra difficilmente ipotizzabile. Innanzitutto, il diritto di proprietà intellettuale deve essere in ultima analisi riconducibile alla persona fisica dell’inventore o dell’autore, a cui spetta a titolo originario il c.d. “diritto morale” indisponibile (mentre sono evidentemente disponibili i diritti di utilizzazione economica). Inoltre, secondo la logica fondativa della normativa antitrust[17], qualora si riconoscessero puramente e semplicemente dei monopoli alle creazioni delle IA, si produrrebbero smisurate quantità di invenzioni e opere protette, con effetto di barriera all’ingresso nel mercato dei relativi prodotti. Infine, la presenza di una grande quantità di invenzioni non conoscibili a priori renderebbe estremamente difficoltoso il processo d’innovazione, in quanto risulterebbe non facile accertare la mancata lesione di un diritto altrui.

Anche nella legislazione positiva italiana sembrano esservi ostacoli al riconoscimento del diritto di proprietà intellettuale in capo alle creazioni di un software operante con IA. In particolare, l’articolo 2575[18] del Codice Civile si appunta sul carattere di creazione personale dell’opera e sul titolo originario di acquisto del diritto su di essa, mentre l’articolo 2580[19] sembra escludere la titolarità del diritto d’autore in capo a soggetti diversi dall’autore e suoi aventi causa; dunque, in capo ad un software “creatore” o “inventore” distinto dal suo proprietario.

D’altronde, secondo quanto dichiarato in un’intervista[20] da Francis Gurry, direttore generale dell’Organizzazione mondiale per la proprietà intellettuale (World Intellectual Property Organization, WIPO), l’IA è destinata ad avere un enorme impatto sulle categorie logiche della proprietà intellettuale, sebbene sia ancora presto per prevederne l’effettiva portata. Da un punto di vista puramente economico, infatti, tralasciando gli aspetti inerenti alla “giusta ricompensa” per lo sfruttamento dell’opera e ai diritti morali spettanti all’autore, non vi sarebbe motivo per negare agli output generati dall’IA lo status di opera dell’ingegno. Semplicemente, l’emersione di sempre nuove sfide potrebbe richiedere dei livelli aggiuntivi di disciplina e la creazione di nuove tipologie di diritti.

5.1 IA e copyright

Il livello di creatività raggiunto dai più recenti software ha, in particolare, sollevato interrogativi in merito all’applicabilità della normativa sul copyright agli output non facenti capo direttamente ad un autore persona fisica. 

Ad oggi, l’uso delle IA è in larga parte giustificato dalla loro capacità di incidere utilmente sul rapporto costo-lavoro[21]

Queste c.d. learning machine sono configurate in modo tale da svolgere un compito dato sulla base di un input definito dallo sviluppatore o dall’utente. Si pensi ad un software progettato per riconoscere tutte le immagini caratterizzate da determinati parametri (lettere, forme etc.) inseriti precedentemente nel sistema, il quale, dopo averli digitalizzati, è in grado di tradurre questi dati in indicazioni utili allo svolgimento del compito[22], come ad esempio (secondo un esperimento realmente condotto), quello di riprodurre un dipinto di Rembrandt dopo averne profilato e rielaborato i dati relativi allo stile[23]. Di conseguenza, l’input non gioca più esclusivamente un ruolo di individuazione delle caratteristiche di un oggetto, ma comporta anche un orizzonte creativo, potenzialmente originale, della macchina. Ci si chiederà, allora, se al termine del processo creativo il prodotto originato dal software sia o meno proteggibile mediante copyright

Al momento gli ordinamenti nazionali, ad esclusione del Regno Unito, non hanno dato risposte articolate. Il Copyright, Designs and Patent Act (CDPA)[24] britannico del 1988 stabilisce che è autore[25] dell’opera prodotta tramite un computer colui che ha effettuato le configurazioni necessarie alla creazione, fermo restando che la tutela del diritto sarà garantita solo quando l’opera sia “originale”[26], ossia qualora soddisfi il requisito di “creazione intellettuale” propria dell’autore, riflettendone la personalità e le scelte creative; tuttavia, per quanto riguarda i moral rights, il diritto di essere identificato come autore[27] non si applica alle opere generate tramite un computer

La definizione di “opera originale” come risultato della creazione intellettuale dell’autore è stata adottata a livello europeo fin dal 1991[28] per poi essere successivamente ribadita, tra le altre, dalla Direttiva sul copyright del 2001[29] e dalla Direttiva concernente la durata di protezione del diritto d’autore del 2006[30]; inoltre, tale definizione ha trovato conferma da parte della Corte di Giustizia dell’Unione Europea, fra l’altro, nelle sentenze Infopaq International v. Danske Dagblades Forening (2009)[31] e Football Dataco v. Yahoo! UK (2012)[32]

Tuttavia, in materia di IA, un test di originalità che prenda come riferimento criteri soggettivi legati ad una persona fisica non sembra adeguato. In primo luogo, sarà da precisare se, in questi processi automatizzati, il soggetto possa essere nondimeno considerato autore e con quali criteri e limiti. Inoltre, quand’anche dovesse venire modificato il test di originalità, dovrebbe comunque escludersi che l’autore possa essere l’IA in sé, dato che soltanto l’essere umano[33] può essere investito di questo status. Spetterà, dunque, necessariamente al legislatore il compito di chiarire l’apporto dell’uomo nel processo automatizzato e con quali conseguenze.

In secondo luogo, la riconfigurazione dell’istituto dovrebbe consentire di stabilire quando una violazione del copyright sia riconducibile all’attività della learning machine: durante il processo creativo, infatti, potrebbe essere prodotta una copia permanente o semi-permanente di un input iniziale che potrebbe violare il diritto d’autore altrui. Diverse normative nazionali, come ancora una volta quella del Regno Unito[34], sono già chiare a riguardo, precisando che la riproduzione di un’opera coperta da copyright è vietata attraverso qualsiasi mezzo elettronico, ivi includendo anche gli elaborati che non rappresentano l’opera finale in sé. Di conseguenza, l’aver digitalizzato prima e riprodotto in seguito un’opera coperta da copyright durante dei processi di IA ne comporterebbe comunque la violazione.

5.2 La posizione dell’Ufficio Europeo dei Brevetti

Con effetto dal 1° novembre 2018 l’Ufficio Europeo dei Brevetti (European Patent Office, EPO), ha aggiornato le sue Linee Guida d’Esame[35], introducendo un’apposita sezione[36] dedicata all’IA, ove si ribadisce che i modelli computazionali e gli algoritmi sono, di per sé, considerati di natura astratta[37]

Per tale ragione, anziché proporre innovazioni della disciplina vigente per gli algoritmi matematici, l’EPO ne ha disposto l’estensione alle IA[38]. I metodi matematici sono di per sé privi di carattere tecnico e, dunque, non sono brevettabili, a meno che non forniscano una soluzione ad un problema tecnico[39]. Il carattere tecnico si può desumere dall’analisi della casistica delle Camere di Ricorso (Boards of Appeal) dell’EPO. Ad esempio, è stato ritenuto che un network neurale impiegato nei dispositivi di monitoraggio del battito cardiaco sia brevettabile[40], mentre, al contrario, un’IA programmata per la sola classificazione di documenti in base al testo, senza altri parametri o criteri di catalogazione, non è suscettibile di brevettazione[41].

6. Gli smart contract

Una recente applicazione delle IA in ambito giuridico è costituita dai c.d. smart contract, ossia quei protocolli informatici volti a facilitare, verificare o far rispettare la negoziazione o l’esecuzione di un contratto. Solitamente dotati di un’interfaccia con l’utente, e spesso in grado di simulare la logica delle clausole contrattuali, il loro scopo è quello di raggiungere una maggiore sicurezza degli scambi ed un risparmio dei costi e dei tempi di transazione. Possono operare secondo la c.d. blockchain technology[42] e concretamente costituiscono dei contratti self-executing scritti da codici e non da operatori del diritto umani.

La principale problematica inerente agli smart contract riguarda l’effettiva conoscenza del contenuto del contratto da parte del contraente. Posto che il contratto viene concluso automaticamente al ricorrere di determinati presupposti, potrebbe accadere che alcune sue condizioni siano sconosciute all’utilizzatore del software, specialmente se si prevedano molte variabili e meccanismi di combinazione che influenzano l’azione del programma. Poiché il software opera attraverso meccanismi di IA, esso può prendere decisioni senza che le relazioni di causa-effetto siano previste o comprese dall’uomo. Ne segue che l’oggetto del contratto sarà probabilmente determinabile, ma non sempre determinato a priori. E, in presenza di volumi molto elevati di variabili autonomamente gestite dal software, anche la determinabilità potrebbe venire meno. Di conseguenza, ci si domanda se in queste ipotesi possa effettivamente parlarsi di volontà di concludere il contratto in senso giuridico, oppure non si tratti piuttosto di assunzione del rischio, in capo all’utente utilizzatore, di sottoscrivere un contratto comunque elaborato da un software[43].

Sotto diverso riguardo, il pregio degli smart contract consiste nel non poter essere interpretati in modo diverso rispetto all’intenzione originaria. Tuttavia, anche se questi contratti paiono rivoluzionari, occorrerà pur sempre considerare che la presenza di bug (o malware) nei software di progettazione degli smart contract non può essere esclusa; pertanto, è verosimile che anche in futuro gli operatori del diritto non vedranno scomparire del tutto il proprio ruolo.

7. Il diritto dell’Unione e le IA

In data 28 giugno 2016, l’unità di Valutazione delle Opzioni Scientifiche e Tecnologiche (Scientific and Technological Options Assessment, STOA) del Parlamento Europeo[44] ha pubblicato uno studio in cui vengono identificati sei macro-ambiti (trasporti, sistemi a duplice uso, libertà civili, sicurezza, salute ed energia) interessati dagli sviluppi della robotica, dei sistemi ciberfisici e delle IA, individuando per ognuno gli atti legislativi e regolamentari che potrebbero necessitare di una revisione o di un aggiornamento[45]

Il 16 febbraio 2017, il Parlamento ha espresso la propria posizione[46] in materia di IA, includendo tra i “… principi generali riguardanti lo sviluppo della robotica e dell’intelligenza artificiale per uso civile…” l’invito ad introdurre “… un sistema globale dell’Unione per la registrazione dei robot avanzati nel mercato interno…”, e ritenendo l’attività di monitoraggio logicamente antecedente rispetto a quella di regolamentazione. 

È, così, risultato di immediata evidenza come degli interrogativi e degli imperativi etici si pongano a livello orizzontale rispetto agli ambiti interessati.

Il Parlamento ha, in primo luogo, posto l’accento sul principio di trasparenza[47], e sulla necessità di “… indicare la logica alla base di ogni decisione presa con l’ausilio dell’intelligenza artificiale che possa avere un impatto rilevante sulla vita di una o più persone…”. Per quanto riguarda, invece, i diritti di proprietà intellettuale ed i rischi per le informazioni sensibili che possono verificarsi con l’uso delle IA[48], richiamando gli articoli 7 e 8 della Carta dei Diritti Fondamentali dell’Unione Europea, così come l’articolo 16 del Trattato sul Funzionamento dell’Unione Europea (TFUE), il Parlamento ha invitato la Commissione “… a garantire che siano rispettati i principi della protezione dei dati, come la tutela della vita privata fin dalla progettazione e per impostazione predefinita, la minimizzazione dei dati e la limitazione delle finalità, così come meccanismi di controllo trasparenti per i titolari dei dati e misure correttive adeguate conformi alla legislazione dell’Unione in materia di protezione dei dati e che siano promosse adeguate raccomandazioni e norme da integrare nelle politiche dell’Unione…”. 

Questa affermazione è ancor più significativa se si considera che, in data 10 maggio 2017, la stessa Commissione ha evidenziato nella sua Comunicazione sulla revisione intermedia dell’attuazione della strategia per il mercato unico digitale[49] come gli investimenti notevoli da parte dell’Unione nel settore digitale ed informatico siano espressamente mirati anche alle IA[50]

Anche il Comitato economico e sociale europeo (CESE)[51] è intervenuto[52] per delineare i profili della legislazione futura in materia. In primo luogo, il CESE ha raccomandato all’UE “… di assumere un ruolo di leader mondiale nell’adozione di quadri strategici uniformi e di valenza universale per l’IA, in linea con i valori e i diritti fondamentali europei…[53], in modo tale da competere con Cina e Stati Uniti non soltanto dal punto di vista produttivo, ma anche per la qualità della regolamentazione. Inoltre, il Comitato ha suggerito di adottare sempre un “… approccio human-in-command con la condizione essenziale che l’IA sia sviluppata in maniera responsabile, sicura e utile,[cosicché] la macchina rimanga macchina e l’uomo ne mantenga il controllo in ogni momento…[54]. Infine, viene raccomandato lo sviluppo di “… un’infrastruttura di IA europea, costituita da ambienti di apprendimento a codice sorgente aperto (open source)[55] e rispettosi della privacy, [nonché di] ambienti di collaudo in condizioni reali…[56].

Il percorso legislativo ha avuto inizio nei primi mesi del 2018. In data 9 marzo, la Commissione ha comunicato[57] la volontà di istituire un Gruppo di esperti ad alto livello sull’intelligenza artificiale (High-Level Expert Group on Artificial Intelligence, AI HLEG) con la missione di: (i) consigliare la Commissione su come riunire un ampio numero di interessati in un’Alleanza Europea per l’IA[58], cercando di bilanciarne i diversi interessi e contro-interessi; (ii) supportare l’implementazione delle iniziative europee sull’IA; e (iii) delineare, sulla base delle indicazioni del Gruppo Europeo sull’Etica nelle Scienze e Nuove Tecnologie (European Group on Ethics and New Technologies, EGE)[59], una proposta di Orientamenti sull’Etica delle Intelligenze Artificiali, destinati a fissare i principi per lo sviluppo di regolamenti tecnici futuri. 

In seguito, in occasione del Digital Day 2018, 24 Stati Membri, insieme alla Norvegia e alla Svizzera, hanno sottoscritto un atto politico[60] di impegno e cooperazione sull’IA. Al riguardo Mariya Gabriel, Commissario per l’economia e le società digitali, ha affermato che “… la digitalizzazione sta trasformando la nostra società e l’unico modo per beneficiarne appieno è attraverso una stretta e fruttuosa collaborazione…[61], di poco anticipando la Comunicazione[62] del 25 aprile 2018 della Commissione, con cui la stessa è impegnata a stabilire i tre pilastri su cui fondare l’imminente formulazione di una proposta di Linee Guida. Essi consistono: nell’essere all’avanguardia in termini di tecnologia e stimolarne l’utilizzo da parte dei privati e delle amministrazioni pubbliche[63]; nel prepararsi ai cambiamenti socio-economici dovuti all’implementazione su larga scala delle IA; e nell’ “… assicurare un quadro etico e giuridico adeguato, basato sui valori dell’Unione e coerente con la Carta dei diritti fondamentali dell’UE…”.

Su quest’ultimo punto, il Regolamento Generale sulla Protezione dei Dati (General Data Protection Regulation, GDPR)[64] assicura di già un elevato livello di protezione dei dati personali, in particolare mediante i concetti di privacy by design e privacy by default[65]. Com’è noto, il Regolamento garantisce la libera circolazione dei dati personali all’interno dell’Unione e contiene disposizioni anche sui processi decisionali basati sui trattamenti automatizzati, come nel caso della profilazione[66]. Inoltre, lo stesso conferisce agli individui il diritto di non essere sottoposti a una decisione (amministrativa) basata unicamente su un trattamento automatizzato, eccetto in determinate situazioni[67]

La Commissione ha ritenuto che, in tema di sicurezza, il quadro normativo dell’Unione copra già adeguatamente “… le forme prevedibili di uso e abuso dei prodotti al momento della loro commercializzazione sul mercato. Ciò ha condotto all’elaborazione di un solido corpus di norme nell’area dei dispositivi capaci di usare l’IA che viene continuamente adattato per adeguarlo al progresso tecnologico…[68]. Inoltre, rispetto ad una eventuale futura governance specifica del settore, la Commissione ha affermato che “… per quanto l’autoregolamentazione possa fornire una prima serie di parametri per valutare le applicazioni e i risultati emergenti, spetta alle autorità pubbliche assicurare che il quadro normativo per lo sviluppo e l’utilizzo delle tecnologie di IA sia in linea con questi valori e diritti fondamentali…[69]

In data 12 dicembre 2018, coadiuvata dai partner del progetto Artificial Intelligence for the European Union (AI4EU)[70] e da esponenti del network Digital Innovation Hubs (DIH) per la robotica[71], la Commissione ha predisposto l’attivazione di una piattaforma on demand dotata di IA a partire dal 1° gennaio 2019. La piattaforma, sovvenzionata con 20 milioni di euro per tre anni messi a disposizione del progetto AI4EU, servirà come test per valutare l’efficienza e l’affidabilità delle IA nell’approntamento di servizi. Inoltre, un apposito osservatorio etico verrà istituito per verificare che la piattaforma funzioni nel rispetto dei diritti umani. Il progetto va raccordato con il piano d’azione coordinato[72] presentato il 7 dicembre 2018 dalla Commissione, in cui gli obiettivi precedentemente espressi da parte dell’Unione Europea vengono sostanzialmente messi in relazione con future concrete attività. Tale piano ha ricevuto l’approvazione del Consiglio dell’Unione, il quale ha sottolineato “… l’importanza cruciale di promuovere lo sviluppo e l’utilizzo dell’intelligenza artificiale in Europa aumentando gli investimenti nel settore, rafforzando l’eccellenza nelle tecnologie e applicazioni di intelligenza artificiale e intensificando la collaborazione tra industria e mondo accademico nella ricerca e nell’innovazione in materia di intelligenza artificiale…[73].

In data 18 dicembre 2018, il progetto di Orientamenti etici sull’IA[74] è stato pubblicato, e ad esso ha fatto seguito l’invito, da parte della Commissione, a presentare commenti e osservazioni così da poterlo finalizzare entro la prima parte del 2019. 

Gli Orientamenti hanno introdotto il concetto di IA affidabile, ossia progettata per assicurare il rispetto dei diritti fondamentali, implementando sia principi chiave di natura astratta e generale, che valori di natura concreta e pratica, da desumersi da fonti europee e internazionali. Nello specifico, sono stati identificati cinque principi[75] e almeno dieci requisiti[76] da rispettare affinché un’IA possa essere ritenuta affidabile. Inoltre, gli Orientamenti hanno individuato una lista non esaustiva di problematiche che potrebbero inficiare l’implementazione dei suddetti principi e valori: ad esempio, il problema dell’identificazione di un individuo senza il suo consenso, oppure i rapporti tra IA ed essere umano nella realtà quotidiana. Tali Orientamenti, infine, vanno raccordati con la proposta di Regolamento del Parlamento Europeo e del Consiglio del 6 giugno 2018 che istituisce il programma Europa Digitale per il periodo 2021-2027[77]

Gli Orientamenti hanno dato risposta ad una serie di problematiche sollevate da parte dell’EGE[78] attinenti, in particolare, (i) alla sicurezza, alla prevenzione e alla mitigazione dei rischi legati all’uso crescente dell’IA nei contesti della vita quotidiana; (ii) alla responsabilità morale dell’essere umano; (iii) alle modalità di regolamentazione, sviluppo e monitoraggio del settore; e (iv) al rapporto tra democrazia e IA e alla sua influenza sui processi decisionali dei cittadini. Inoltre, l’EGE ha chiarito come il termine “autonomia” sia in realtà impropriamente accostato alle IA, dato che lo stesso presuppone un’idea di autocoscienza e di pensiero critico associabile solo all’essere umano; una macchina non potrà mai essere definita propriamente autonoma, a prescindere da quanto tecnologicamente avanzata possa essere. Alla luce di ciò, non solo ad una IA non potrà essere riconosciuta una dimensione morale in senso proprio, ma la stessa non dovrebbe neppure essere considerata titolare di diritti relativi ad opere e materiali da sé prodotti, o utilizzata in modo surrettizio per negare la responsabilità del suo programmatore, o proprietario, qualora essa abbia compiuto scelte eticamente scorrette.

8. Considerazioni di sintesi

Anche grazie al continuo incremento globale nella ricerca e nello sviluppo, le IA rappresentano uno dei fenomeni più dirompenti del terzo millennio. I vantaggi che derivano dal loro impiego sono evidenti e molteplici ma, allo stesso tempo, non possono essere ignorati i rischi che questi sistemi comportano (fra i molti) per la privacy dell’individuo o per il diritto d’autore sulle opere di ingegno e, in definitiva, per i diritti commerciali.

I ripetuti interventi delle istituzioni europee in materia confermano la rilevanza del fenomeno e, al tempo stesso, dimostrano come esso non sia da temere ma sia sicuramente da governare. Una stretta cooperazione a livello internazionale nella definizione del quadro normativo futuro, a dei livelli di implementazione nazionale attenti ed illuminati, sono la sfida che attende la società dei prossimi decenni.


[1] Com. Comm., COM(2018) 237 final del 25.4.2018, L’intelligenza artificiale per l’Europa.

[2] Per maggiori informazioni circa l’impiego dei robot nell’ambito sanitario ed i loro possibili sviluppi futuri si veda il seguente LINK.

[3] Com Comm., COM(2017) 228 final del 10.5.2017, Un mercato unico digitale connesso per tutti.

[4] Il Customer Relationship Management è un metodo per migliorare la gestione delle interazioni di un’impresa con i clienti attuali e potenziali. Si serve di database che custodiscono i dati, anche sensibili, dei clienti che vengono ricavati principalmente in due modi: tramite compilazione manuale, che implica un’attività diretta e personale del cliente, oppure tramite compilazione automatizzata, che ha luogo quando il CRM ricava i dati dai form compilati dagli utenti sulle landing page cui accedono quando si iscrivono ad una newsletter oppure quando contattano l’azienda tramite e-mail.

[5] Con creatività computazionale si intende lo studio dei processi creativi condotto attraverso gli strumenti e i metodi della computazione, vale a dire attraverso lo sviluppo e l’implementazione di programmi per calcolatore. Tale studio mira sia alla formalizzazione dei processi creativi umani sia alla progettazione di algoritmi in grado di dar vita a comportamenti che sarebbero considerati creativi se messi in atto da un essere umano. Ad esempio, un software può essere progettato per riconoscere delle immagini in cui siano presenti dei dati oggetti (lettere, forme etc.) sulla base degli esempi forniti da una delle due figure previamente menzionate. In questo caso, l’IA copia il riferimento digitalizzandone il contenuto e traducendolo in indicazioni utili allo svolgimento del proprio compito.

[6] Nel 2016, il conducente di un veicolo è rimasto coinvolto in incidente mortale che ha avuto luogo nel momento in cui un sistema di guida semiautomatico era inserito. Per maggiori dettagli si veda il seguente LINK.

[7] Il “problema del carrello ferroviario” è un esperimento di filosofia etica, formulato nel 1967 dalla filosofa inglese Philippa Ruth Footalla, alla cui base c’è la soluzione di un dilemma etico. Per maggiori informazioni, si veda il seguente LINK.

[8] Dichiarazione sull’Etica e la Protezione dei Dati nell’Intelligenza Artificiale, 23 Ottobre 2018, consultabile al seguente LINK.

[9] Com. Comm., COM(2018) 237 final.

[10] Comm. Staff Working Document, SWD/2018/137 final del 25.04.18.

[11] Direttiva 85/374/CEE del Consiglio, del 25 luglio 1985, relativa al ravvicinamento delle disposizioni legislative, regolamentari ed amministrative degli Stati Membri in materia di responsabilità per danno da prodotti difettosi, GUUE L 210 del 07.08.1985.

[12] La nozione di produttore ai sensi della Direttiva è estremamente estesa, tanto da comprendere, oltre al fabbricante del prodotto, anche “… ogni persona che, apponendo il proprio nome, marchi marchio o altro segno distintivo sul prodotto, si presenti come produttore dello stesso…”.

[13] Si veda l’art. 13 della Direttiva 85/374/CEE.

[14] G. Fioriglio, La <<Dittatura dell’Algoritmo>>: Motori di Ricerca Web e Neutralità della Indicizzazione: Profili Informatico-Giuridici in Bocconi Legal Papers, 5, 2015.

[15] R. Borruso, Analisi giuridica del computer in Computer e diritto, tomo 1, Giuffrè, Milano, 1988, p. 101.

[16] Si veda l’articolo 56 della CBE 2000.

[17] Articoli 101 e 102 del Trattato sul funzionamento dell’Unione europea (TFUE).

[18] Codice Civile, articolo 2575: “… Formano oggetto del diritto di autore le opere dell’ingegno di carattere creativo che appartengono alle scienze, alla letteratura, alla musica, alle arti figurative, all’architettura, al teatro e alla cinematografia, qualunque ne sia il modo o la forma di espressione…”.

[19] Codice Civile, articolo 2580: “… Il diritto di autore spetta all’autore ed ai suoi aventi causa nei limiti e per gli effetti fissati dalle leggi speciali…”.

[20] Disponibile al seguente LINK.

[21] Accenture, impresa multinazionale di consulenza strategica, ha calcolato che, entro il 2020, l’utilizzo di IA accrescerà del 38% i ricavi delle imprese che hanno investito in queste tecnologie almeno quanto le aziende leader di mercato, con un incremento potenziale dell’occupazione pari al 10%. Per maggiori informazioni, si veda il seguente LINK.

[22] Questo processo di apprendimento e creazione è possibile grazie ai c.d. Artificial Neural Networks (ANN) che, sulla base dei dati analiticamente organizzati, permettono alla macchina di “pensare” dei modelli o strutture da potere riprodurre da sé.

[23] Il progetto, denominato The Next Rembrandt, è stato portato avanti dalla società pubblicitaria J. Walter Thomson coadiuvata da Microsoft, il gruppo ING ed altri. Per maggiori informazioni, si veda il seguente LINK.

[24] Copyright, Designs and Patent Act 1988, consultabile al seguente LINK

[25] Ibidem, articolo 9(3).

[26] Ibidem, articolo 3A(2).

[27] Ibidem, articolo 77.

[28] Direttiva 91/250/CEE del Consiglio, del 14 maggio 1991, relativa alla tutela giuridica dei programmi per elaboratore, GUUE L 122 del 17.95.1991.

[29] Direttiva 2001/29/EC del Parlamento europeo e del Consiglio, del 22.05.2001, sull’armonizzazione di taluni aspetti del diritto d’autore e dei diritti connessi nella società dell’informazione, GUUE L 167 del 22.6.2001.

[30] Direttiva 2006/116/CE del Parlamento europeo e del Consiglio, del 12 dicembre 2006, concernente la durata di protezione del diritto d’autore e di alcuni diritti connessi, GUUE L 372 del 27.12.2006.

[31] CGUE 16.07.2009, Causa C-5/08, Infopaq International v. Danske Dagblades Forening, punto 37. 

[32] CGUE 01.03.2012, Causa C- 604/10, Football Dataco v. Yahoo! UK, punto 17. 

[33] In verità, l’articolo 4(1) della Direttiva 96/9/CE del Parlamento europeo e del Consiglio, dell’11.03.96, relativa alla tutela giuridica delle banche di dati. GUUE L 077 del 27.03.1996, ammette che “… [l]’ autore di una banca di dati è la persona fisica o il gruppo di persone fisiche che l’ha creata o, qualora la legislazione dello Stato membro interessato lo consenta, la persona giuridica individuata da tale legislazione come titolare del diritto…”.

[34] Copyright, Designs and Patent Act 1988, articolo 17: “…Copying in relation to a literary, dramatic, musical or artistic work means reproducing the work in any material form. This includes storing the work in any medium by electronic means…”.

[35] Guidelines for Examination in the European Patent Office, 1 giugno 1978.

[36] Disponibile al seguente LINK

[37] Punto 3.3.1: “… Such computational models and algorithms are per se of an abstract mathematical nature, irrespective of whether they can be “trained” based on training data. Hence, the guidance provided in G-II, 3.3 generally applies also to such computational models and algorithms…”.

[38] Ibidem.

[39] Tale principio è il criterio cardine nella scelta dei prodotti brevettabili o meno, come confermato dalla decisione della Commissione di ricorso dell’EPO 26.09.2002, caso T-641/00, COMVIK GSM AB contro DeTeMobil Deutsche Telekom MobilNet GmbH GIESECKE & DEVRIENT GmbH, punto 7.

[40] Boards of Appeal 19.05.10, caso T-0598/07, Cardionetics Limited contro BIOTRONIK, punto 4.3.2.

[41] Boards of Appeal 03.05.07, caso T-1358/09, BDGB Enterprise Software Särl, punto 5.5.

[42] La blockchain technology consiste in un registro digitale aperto e distribuito in grado di memorizzare strutture di dati in blocchi collegati tra loro mediante crittografia. Il suo vantaggio deriva dal fatto che, una volta scritti, i dati di un determinato blocco non possono essere retroattivamente alterati senza modificare tutti i blocchi successivi, il che, essendo a tal fine necessario il consenso della maggioranza della rete, rende tali dati sicuri e verificabili.

[43] G. Finocchiaro, Il contratto nell’era dell’IA in Rivista Trimestrale di Diritto e Procedura Civile, fasc.2, 1 giugno 2018, pag. 441.

[44] Il programma STOA, attivo dal 1987, è un organo del Parlamento Europeo il cui funzionamento è finanziato su base annuale dal bilancio di quest’ultimo. La sua finalità è quella di offrire al Parlamento Europeo una consulenza indipendente, imparziale e di elevata qualità per la valutazione dell’impatto delle nuove tecnologie e l’identificazione delle opzioni relative alle migliori linee di condotta da intraprendere. Per maggiori informazioni, si veda il seguente LINK.

[45] Ethical Aspects of Cyber-Physical Systems, 28 giugno 2016, consultabile al seguente LINK.

[46] Risoluzione del Parlamento Europeo, del 16 febbraio 2017, recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica, 2015/2103(INL).

[47] Ibidem, punto 12.

[48] Ibidem, punto 20.

[49] Com. Comm., COM/2017/0228 final del 10.05.2017, Un mercato unico digitale connesso per tutti.

[50] Punto 4.2: “… Nei prossimi tre anni, è previsto lo stanziamento, nel quadro del programma Orizzonte 2020, di un importo supplementare di 300 milioni di EUR per attività legate ai poli dell’innovazione digitale, essenziali per sostenere le start-up e l’innovazione a livello locale. Si prevede inoltre lo stanziamento regolare di fondi pari a quasi 3,2 miliardi di EUR a favore delle tecnologie strategiche, tra cui la nanoelettronica, la fotonica, la robotica, le reti 5G, i sistemi informatici ad alte prestazioni, i big data, il cloud computing, l’intelligenza artificiale, comprese la loro integrazione nelle catene del valore, la messa a punto di linee pilota e la costituzione di banchi di prova… “.

[51] Il CESE è un organo consultivo dell’Unione che comprende rappresentanti delle organizzazioni dei lavoratori e dei datori di lavoro e di altri gruppi d’interesse. Formula pareri su questioni riguardanti l’UE per la Commissione Europea, il Consiglio dell’Unione e il Parlamento Europeo, fungendo così da ponte tra le istituzioni decisionali dell’UE e i cittadini dell’Unione. Per maggiori informazioni, si veda il seguente LINK.

[52] Parere del Comitato Economico e Sociale Europeo, GUUE C 288 del 31.08.2017, su “L’intelligenza artificiale — Le ricadute dell’intelligenza artificiale sul mercato unico (digitale), sulla produzione, sul consumo, sull’occupazione e sulla società”.

[53] Ibidem, punto 1.4.

[54] Ibidem, punto 1.6.

[55] Il termine open source indica un software il cui codice sorgente è rilasciato con un’apposita licenza d’uso che lo rende modificabile o migliorabile da parte di chiunque. Il codice sorgente è la parte del software che i programmatori di computer possono manipolare per modificare il funzionamento di un programma o di un’applicazione, aggiungendovi funzioni o migliorandone aspetti che non sempre funzionano correttamente.

[56] Si veda il punto 1.9 del Parere del Comitato Economico e Sociale Europeo. Analogamente dispone l’annuale dichiarazione congiunta del Consiglio, del Parlamento e della Commissione sulle priorità dell’Unione per il biennio 2018-2019, rilasciata in data 14 dicembre 2017, dove vengono ripresi concetti già espressi da atti dei singoli organi, come ad esempio la necessità di sviluppare il mercato digitale attraverso il completamento della regolamentazione del settore delle comunicazioni elettroniche, quella di innalzare gli standard di tutela del consumatore per l’acquisto a distanza di prodotti materiali o digitali e infine quella di rinforzare l’applicazione delle regole a livello transfrontaliero.

[57] Il comunicato stampa è disponibile al seguente LINK.

[58] L’Alleanza Europea rappresenta una piattaforma a cui iscriversi liberamente al fine di condividere le migliori pratiche, contribuire alle linee guida sull’etica dell’IA, creare connessioni ed incoraggiare attività legate allo sviluppo dell’IA. Scopo dell’Alleanza Europea è quello di fornire al gruppo di esperti spunti di riflessione e questioni che potranno essere inserite nelle raccomandazioni da deferire alla Commissione, e i suoi membri saranno consultati sulla bozza delle linee guida etiche prima della effettiva presentazione alla Commissione. Per maggiori informazioni, si veda il seguente LINK.

[59] Il Gruppo Europeo sull’Etica nelle Scienze e Nuove Tecnologie è stato istituito dalla Commissione nel 1991 allo scopo di far fronte al crescente divario fra l’Europa e gli Stati Uniti in merito alle nuove tecniche nel campo delle biotecnologie Per maggiori informazioni si veda il seguente LINK.

[60] Cooperation on Artificial Intelligence, 10 aprile 2018, disponibile al seguente LINK.

[61] Si veda il seguente LINK.

[62] Com. Comm., COM(2018) 237 final del 25.4.2018, L’intelligenza artificiale per l’Europa.

[63] L’Unione ha predisposto un investimento pari a 1,5 miliardi di eurp nel biennio 2018-2020 con il programma di sviluppo Horizon 2020. Per maggiori informazioni, si veda il seguente LINK.

[64] Regolamento (UE) 2016/679 del Parlamento europeo e del Consiglio, del 27.4.2016, relativo alla protezione delle persone fisiche con riguardo al trattamento dei dati personali, nonché alla libera circolazione di tali dati e che abroga la direttiva 95/46/CE, GUUE L 119 del 04.05.2016.

[65] Articolo 25 del GDPR.

[66] L’articolo 4 definisce la profilazione come “… qualsiasi forma di trattamento automatizzato di dati personali consistente nell’utilizzo di tali dati personali per valutare determinati aspetti personali relativi a una persona fisica, in particolare per analizzare o prevedere aspetti riguardanti il rendimento professionale, la situazione economica, la salute, le preferenze personali, gli interessi, l’affidabilità, il comportamento, l’ubicazione o gli spostamenti di detta persona fisica…“.

[67] Articolo 22 del GDPR.

[68] Si veda la nota 62.

[69] Ibidem.

[70] Il consorzio, che raggruppa 79 partner in 21 diversi Stati Europei, anche al di fuori dei confini dell’Unione, ha lo scopo di assicurare un miglioramento delle condizioni di accesso alle IA nei confronti di tutti gli utenti. Per maggiori informazioni, si veda il seguente LINK.

[71] Il network riunisce i poli di sviluppo tecnologico presenti in Europa, ed è direttamente sovvenzionato dalla Commissione Europea. Per maggiori informazioni, si veda il seguente LINK.

[72] Com. Comm., COM (2018) 795 final del 07.12.18, Piano coordinato sull’intelligenza artificiale.

[73] Concl. Cons., 6177/19 dell’11.02.2019, Conclusioni relative al piano coordinato sull’intelligenza artificiale.

[74] Draft Ethics Guidelines for Trustworthy AI, 18 dicembre 2018, consultabile al seguente LINK.

[75] Questi sono: 1) beneficienza, secondo cui i sistemi IA devono essere progettati per migliorare il benessere collettivo ed individuale; 2) non malevolenza, secondo cui le IA non devono operare in maniera discriminatoria o al fine di danneggiare l’essere umano; 3) autonomia, secondo cui coloro che interagiscono con le IA devono mantenere una piena ed efficace autodeterminazione; 4) giustizia, secondo cui lo sviluppo, uso e regolamentazione delle IA deve essere equo; e 5) trasparenza sia a livello tecnico che funzionale.

[76] Questi sono: 1) meccanismi di responsabilizzazione e riparazione del danno; 2) creazione di un patrimonio informativo unico; 3) IA progettate per essere alla portata di tutti; 4) diretta proporzionalità tra autonomia del sistema e regolamentazione; 5) non discriminazione; 6) rispetto per l’autonomia dell’essere umano; 7) rispetto della privacy; 8) solidità e stabilità nei processi; 9) sicurezza; 10) trasparenza circa il funzionamento delle IA.

[77] Proposta di Regolamento del Parlamento Europeo e del Consiglio che istituisce il programma Europa digitale per il periodo 2021-2027, COM/2018/434 final del 06.06.2018.

[78] Si veda Artificial Intelligence, Robotics and ‘Autonomous’ Systems, consultabile al seguente LINK.