INTELLIGENZA ARTIFICIALE. LA COMMISSIONE EUROPEA VUOLE APPROFONDIRE LO STUDIO DEI RAPPORTI TRA NUOVE TECNOLOGIE E STANDARD ETICI

La Commissione Europea, in linea con quanto enunciato nella Dichiarazione sull’Intelligenza Artificiale, Robotica e Sistemi Autonomi predisposta dal Gruppo Europeo sull’Etica nella Scienza e Nuove Tecnologie (EGE)[1], ha deciso di formare un gruppo di esperti per approfondire lo sviluppo di queste tecnologie e le loro possibili conseguenze. Il tema dell’Intelligenza Artificiale era già stato oggetto di iniziative a livello europeo, nell’ambito degli investimenti in ricerca ed innovazione finanziati dal progetto Horizon 2020.

Secondo la Commissione, i benefici per la società derivanti dallo sviluppo di sistemi di IA saranno molteplici e riguarderanno svariati settori dalla sanità alla sicurezza nei trasporti, fino alla produzione agricola sostenibile.

Tuttavia, lo sviluppo e la diffusione delle tecnologie che sfruttano l’Intelligenza Artificiale porta con sé problematiche rilevanti, come l’impatto sul mercato del lavoro e sulla legislazione in vigore. Il gruppo degli esperti mira a trovare un compromesso adeguato tra lo sviluppo dell’Intelligenza Artificiale e il rispetto dei principi etici propri del nostro sistema. In linea generale, si cerca di creare un mondo interconnesso con Intelligenze Artificiali e Sistemi Autonomi che, allo stesso tempo, sia sicuro e controllabile. Sono diversi i punti interrogativi correlati al tema come si evince dal testo della Dichiarazione, che evidenzia la necessità di rispondere al quesito di ordine morale relativo alla possibilità di configurare una forma di “responsabilità solidale tra uomo e macchina”.

In data 9 Marzo 2018, la Commissione ha aperto un bando per la formazione del gruppo di esperti sull’intelligenza artificiale. Tra i vari obiettivi prefissati, il gruppo dovrà individuare delle vie per la costruzione di un’“Alleanza Europea sull’Intelligenza Artificiale”, dare esecuzione alle relative iniziative e redigere entro l’anno una proposta di  linee guida sullo sviluppo etico e l’uso dell’IA nel rispetto della Carta dei Diritti fondamentali dell’Unione Europea, prendendo in considerazione, in particolare, temi quali l’equità, la sicurezza, la trasparenza, il futuro del mondo del lavoro e della democrazia.

Sempre in data 9 marzo, la Commissione ha altresì aperto un bando per la formazione di un gruppo di esperti sulla responsabilità per danno e nuove tecnologie. Il compito principale di questo gruppo sarà di fornire consulenza alla Commissione in materia di applicabilità della oramai datata Direttiva sulla responsabilità per danno da prodotti difettosi[2] sia ai prodotti tradizionali, che alle nuove tecnologie. Il gruppo dovrà anche assistere la Commissione nell’elaborazione dei principi che potranno essere utilizzati come linee guida per adattare l’applicazione dell’attuale quadro normativo a livello comunitario e nazionale alle nuove tecnologie.

Riportando le parole della Commissaria Europea per l’Economia e la Società digitale Mariya Gabriel: “Per usufruire di tutti i benefici dell’intelligenza artificiale, la tecnologia dev’essere usata sempre nell’interesse dei cittadini, essere rispettosa degli standard etici e deve promuovere i valori europei nel rispetto dei diritti fondamentali”[3].

 

Davide Scavuzzo

 

[1] Statement on Artificial Intelligence, Robotics and ‘Autonomous’ Systems, European Group on Ethics in Science and New Technologies. Disponibile al seguente LINK.

[2] Direttiva 85/374/CEE del Consiglio, del 25 luglio 1985, relativa al ravvicinamento delle disposizioni legislative, regolamentari ed amministrative degli Stati Membri in materia di responsabilità per danno da prodotti difettosi. GUUE L 210 del 07.08.1985.

[3] Si veda il comunicato stampa della Commissione Artificial intelligence: Commission kicks off work on marrying cutting-edge technology and ethical standards, IP/18/1381 del 09.03.2018, disponibile al seguente LINK.