Lo sviluppo dell’intelligenza artificiale (IA) sta rivoluzionando la nostra quotidianità sotto molteplici aspetti. In particolare, l’utilizzo di grandi quantità di dati (Big Data), di robuste architetture di calcolo e di avanzate tecniche di progettazione arricchiscono progressivamente le apparecchiature ed i sistemi tecnologici in vari settori, tra i quali la sanità, i trasporti, l’ambiente e l’energia.
A seguito della diffusione del coronavirus[1], le imprese del settore medico hanno sempre più guardato all’IA per sviluppare in tempi accelerati nuovi trattamenti. Già ora, i sistemi diagnostici più evoluti sono in grado di elaborare autonomamente e nella quasi immediatezza enormi quantità di dati estratti da internet e dalle banche dati delle pubbliche amministrazioni e delle strutture sanitarie, c.d. Internet of Medical Things (IoMT)[2].
Tali sistemi, che mostrano un “comportamento intelligente analizzando il proprio ambiente e compiendo azioni, con un certo grado di autonomia, per raggiungere specifici obiettivi”[3], necessitano, appunto, di grandi quantità di dati per incrementare le loro prestazioni ed automatizzare i processi decisionali attraverso l’utilizzo di algoritmi. Essi sollevano tuttavia questioni giuridiche ed etiche, in quanto l’utilizzo di masse di dati relativi a persone fisiche potrebbero compromettere i loro diritti fondamentali. Nello specifico, dalla affidabilità dei dati elaborati dipenderanno due varianti: la correttezza delle diagnosi, che potrebbe essere dubbia nel caso di dati non sufficientemente validati, e la correttezza e trasparenza degli obiettivi perseguiti, poiché le IA potrebbero orientarsi verso pratiche non etiche, intese a soddisfare obiettivi economici ed amministrativi, con prevalenza sulla effettiva qualità delle cure.
In specie, l’algoritmo applicato potrà ritenersi di qualità soltanto se i dati utilizzati a loro volta lo sono, mentre i diritti fondamentali potrebbero essere compromessi in caso di impiego di dati di bassa qualità. Anche sulla nozione di qualità dei dati vi è incertezza. Al riguardo, sono stati sviluppati due parametri, il primo relativo agli errori di rappresentazione, che indicano l’insufficiente copertura della popolazione analizzata, il secondo relativo agli errori di misurazione, che si verificano quando i dati non misurano ciò che dovrebbero misurare.
Neppure la normativa sulla protezione dei dati personali è del tutto chiara al riguardo. Infatti, il Regolamento generale sulla protezione dei dati (General Data Protection Regulation, GDPR)[4] enuncia il principio di esattezza dei dati in relazione alla qualità soltanto in senso stretto, in quanto si incentra sull’obbligo di conservare dati personali esatti ed aggiornati. Sebbene il termine esattezza possa essere interpretato in senso ampio, esso viene generalmente inteso come correttezza dei dati personali di un determinato individuo, ad esempio, gli anni esatti di una persona.
Numerosi organi europei hanno settorialmente trattato il problema della qualità dei dati, tra cui il Consiglio Europeo[5], il Gruppo europeo sull’etica nelle scienze e nelle nuove tecnologie (GEE)[6], la Commissione per le libertà civili, la giustizia e gli affari interni del Parlamento Europeo (LIBE)[7], il Gruppo di esperti ad alto livello per le intelligenze artificiali (AI HLEG)[8], e la Commissione per l’efficienza della giustizia del Consiglio d’Europa[9].
La Commissione Europea invece ha avviato attraverso il Libro Bianco sull’IA[10] una consultazione pubblica conclusasi il 14 giugno 2020[11], al fine di valutare un approccio normativo omogeneo. Se da un lato, la Commissione riconosce l’importanza dell’IA per l’individuazione di soluzioni rapide ed efficaci in relazione a sfide globali (cambiamento climatico, sostenibilità, mutamenti demografici, protezione dei valori democratici e lotta alla criminalità), dall’altro, essa considera l’applicazione di nuove tecnologie nel settore sanitario come ad alto rischio, e raccomanda delle misure specifiche di tutela dei cittadini e della privacy. La Commissione starebbe considerando gli aspetti di sicurezza e responsabilità riguardanti i sistemi di IA che forniscono ai medici informazioni sanitarie specializzate, quelli che forniscono informazioni mediche direttamente al paziente e quelli che svolgono essi stessi funzioni di mediche e diagnostiche sui pazienti.
L’emergenza Covid-19, che ha iniziato a diffondersi in Europa poco dopo la pubblicazione del Libro Bianco, ha dimostrato l’attualità delle problematiche sollevate dall’utilizzo dell’IA nel campo medico, con incertezze per ora irrisolte sul bilanciamento tra i diritti fondamentali e la tutela della salute pubblica e il perseguimento contrastare degli interessi generali.
Anche in Italia si è aperto un ampio dibattito sulla possibilità di utilizzare un’applicazione scaricata negli smartphoneche consente di tracciare gli spostamenti dei cittadini al fine di contrastare la progressione dei contagi. L’applicazione – allo stato, su base strettamente volontaria – elaborando i dati raccolti e fornisce delle diagnosi in tempo reale, ma potrebbe violare la privacy dei cittadini. Sull’argomento è intervenuto il Presidente del Garante per la protezione dei dati personali, che inizialmente aveva appoggiato il progetto. Successivamente, si è associato alle raccomandazioni della Commissione europea[12] che, con il coinvolgimento del Comitato europeo per la protezione dei dati (European Data Protection Board, EDPB)[13] e del Garante europeo della protezione dei dati (European Data Portection Supervisor, EDPS), ha inteso lanciare un approccio comune europeo per l’utilizzo delle applicazioni mobili[14]sanitarie. In particolare, con il sostegno di eHealth Network[15], la Commissione indica come preferibili le applicazioni basate sulla volontaria adesione del singolo e su sistemi di prossimità, come il bluetooth, in quanto maggiormente selettivi e di minore impatto[16].
A livello internazionale, l’impresa Google ha messo a disposizione, attraverso la società di intelligenza artificiale DeepMind, il suo sistema di deep learning[17] per consentire la condivisione dei risultati in seno alla comunità scientifica per il contrasto del coronavirus tramite lo sviluppo di nuove terapie[18]. Anche l’impresa ImmunoPrecise ha annunciato l’utilizzo dell’IA nello sviluppo di immunoterapie da impiegare nella lotta al Covid-19[19]. La Casa Bianca ha annunciato il lancio del COVID-19 High Performance Computing (HPC) Consortium[20] che mette insieme i leader dell’industria dell’IA, l’industria farmaceutica ed il mondo accademico, ma anche in questi casi permangono dubbi in merito alle metodiche di raccolta e alla qualità dei dati raccolti.
In definitiva, il progresso tecnologico ed il crescente utilizzo dell’IA richiedono una continua riflessione e bilanciamento nella prospettiva dei diritti fondamentali. È auspicabile che, dagli esiti della consultazione pubblica conclusasi di recente, si potranno ritrarre nuovi elementi per una disciplina comune del futuro.
[1] Per ulteriori informazioni si veda il nostro precedente contributo, disponibile al seguente LINK.
[2] Chiamato anche Healthcare IoT, si riferisce ad infrastrutture di dispositivi medici e applicazioni software in grado di comunicare con vari sistemi informatici sanitari. Per ulteriori informazioni, si veda il seguente LINK.
[3] Com. Comm., COM (2018) 237 final del 25.4.2018, L’intelligenza artificiale per l’Europa.
[4] Regolamento (UE) 2016/679 del Parlamento europeo e del Consiglio, del 27 aprile 2016, relativo alla protezione delle persone fisiche con riguardo al trattamento dei dati personali, nonché alla libera circolazione di tali dati e che abroga la direttiva 95/46/CE (regolamento generale sulla protezione dei dati), GUUE L 119 del 4.5.2016.
L’articolo 5 del GDPR, al comma 1, lettera d), così dispone: “… I dati sono […] esatti e, se necessario, aggiornati; devono essere adottate tutte le misure ragionevoli per cancellare o rettificare tempestivamente i dati inesatti rispetto alle finalità per le quali sono trattati («esattezza»)…”.
[5] CO EUR, CONCL 3 del 28.06.2018. Per ulteriori informazioni, si veda il seguente LINK.
[6] Il GEE fa riferimento a atti pregiudizievoli e discriminatori dei database impiegati per addestrare ed eseguire i sistemi di IA, che dovrebbero essere impediti o rilevati, segnalati e neutralizzati in fase precoce. Per ulteriori informazioni, si veda il seguente LINK
[7] Nella Risoluzione del 30.01.2019, la LIBE sottolinea “l’importanza della qualità e dell’accuratezza nonché della natura rappresentativa dei dati utilizzati nello sviluppo e nella diffusione di algoritmi, dal momento che i loro standard si basano sui dati utilizzati per la formazione”. La Commissione specifica altresì che “l’utilizzo di dati di scarsa qualità, obsoleti, incompleti o inesatti, nelle diverse fasi del trattamento dei dati, può portare a previsioni e valutazioni insufficienti e, a sua volta, a pregiudizi”, pertanto in violazioni dei diritti fondamentali e/o a conclusioni del tutto errate, ovvero, a risultati falsi. Per ulteriori informazioni, si veda il seguente LINK.
[8] Com. Comm., COM (2019) 168 final del 8.4.2019, Creare fiducia nell’intelligenza artificiale antropocentrica. L’AI HLEG include la governance dei dati nelle linee guida etiche, quanto requisito fondamentale per poter beneficiare di un’IA affidabile.
[9] La Commissione per l’efficienza della giustizia del Consiglio d’Europa ha adottato la Carta etica europea, la quale fissa i principi per l’uso dell’intelligenza artificiale nei sistemi giudiziari, tra i quali di particolare rilievo il principio di qualità e di sicurezza, inclusi l’utilizzo di fonti certificate e l’intangibilità dei dati. Pe ulteriori informazioni, si veda il seguente LINK.
[10] Com. Comm. COM (2020) 65 final del 19.02.2020, Libro Bianco sull’intelligenza artificiale – Un approccio europeo all’eccellenza e alla fiducia.
[11] Per ulteriori informazioni, si veda il seguente LINK.
[12] Racc. Comm. C(2020) 2296 final del 08.04.2020, on a common Union toolbox for the use of technology and data to combat and exit from the COVID-19 crisis, in particular concerning mobile applications and the use of anonymised mobility data.
[13] Linee Guida del 21.04.2020 on the use of location data and contact tracing tools in the context of the COVID-19 outbreak. Per ulteriori informazioni, si veda il seguente LINK.
[14] Per ulteriori informazioni si veda un nostro precedente contributo, disponibile al seguente LINK.
[15] Si tratta di una rete volontaria sostenuta dall’Unione, che collega le autorità nazionali responsabili dell’assistenza sanitaria online designate dagli Stati membri. Per ulteriori informazioni si veda il seguente LINK.
[16] Per ulteriori informazioni si vedano i nostri precedenti contributi, disponibili ai seguenti LINK e LINK.
[17] L’apprendimento profondo è quel campo di ricerca dell’apprendimento automatico (machine learning) e dell’intelligenza artificiale che si basa su diversi livelli di rappresentazione, corrispondenti a gerarchie di caratteristiche di fattori o concetti, dove i concetti di alto livello sono definiti sulla base di quelli di basso.
[18] Per ulteriori informazioni, si veda il seguente LINK.
[19] Per ulteriori informazioni, si veda il seguente LINK.
[20] Il COVID-19 High Performance Computing (HPC) Consortium è un consorzio di cui fanno parte numerose imprese internazionali attive nel settore tecnologico, tra cui Google, Microsoft e IBM, e numerose Università americane, tra cui il Massachusetts Institute of Technology (MIT). Per ulteriori informazioni, si veda il seguente LINK.