Skip to main content

Etica e Intelligenza Artificiale: un connubio indissolubile

Brevi note a: A. Longo – G. Scorza, Intelligenza artificiale – L’impatto sulle nostre vite, diritti e libertà, ed. Mondadori Università, Milano, 2020

di Manuela Bianchi


Tra i molteplici testi che trattano il tema dell’Intelligenza Artificiale, quello di cui parlo in questo contributo, a parer mio, ha un taglio innovativo, che abbraccia la curiosità e l’interesse di lettori diversi per background, attività, età, sensibilità a una materia, che – sempre di più e volenti o nolenti – tocca tutti nella nostra quotidianità, a prescindere dalla professione che svolgiamo.

Forse il merito di questa prima caratteristica di Intelligenza artificiale – L’impatto sulle nostre vite, diritti e libertà sta nei due Autori, che hanno saputo fondere le proprie conoscenze e i propri approcci proponendo un testo al tempo stesso teorico e pratico, storico e contemporaneo e futuristico, dal taglio giornalistico, ma anche scientifico, ponendo dubbi, aprendo scenari e cercando di capire quali sono i problemi attuali e quelli che si porranno in un futuro prossimo.

Alessandro Longo è giornalista e fin dal 2003 si occupa di tematiche collegate al digitale.

Guido Scorza è avvocato, docente di privacy, diritto della comunicazione e della proprietà intellettuale, già consigliere giuridico del Ministro per l’innovazione e la digitalizzazione, responsabile degli affari nazionali ed europei del team per la trasformazione digitale della Presidenza del Consiglio dei Ministri e Presidente dell’Istituto per le politiche dell’innovazione, da pochi mesi eletto componente del Consiglio del Garante per la protezione dei dati personali.

Da segnalare in apertura l’interessante prefazione del Prof. Francesco Pizzetti, ex Garante Privacy che definisce questo libro “un contributo importante per l’Italia e i giovani italiani affinché essi possano vivere con maggiore consapevolezza e responsabilità sia il presente che il futuro che spetta loro costruire.”

Il primo capitolo, dedicato alle basi storiche e tecnologiche dell’Intelligenza Artificiale (in seguito, “IA”) e dei modelli algoritmici, mette in evidenza come non esista una definizione unica e sempre valida di IA. Adesso per IA si può intendere un insieme di algoritmi sostenuti da chip e da una grande disponibilità di dati (Big Data) che descrivono il mondo e le persone. L’algoritmo è un procedimento che risolve un determinato problema attraverso un numero finito di passi elementari, chiari e non ambigui. I Big Data sono enormi volumi di dati eterogenei, analizzabili in tempo reale. Oggi, gli elementi che sostengono i progressi dell’AI sono: (i) la crescente disponibilità di dati, (ii) l’aumento della potenza dei chip e (iii) l’uso di tecniche algoritmiche più efficaci.

Gli Autori affrontano poi i rischi a livello macrosociale e macroeconomico dell’IA. Stiamo vivendo la quarta rivoluzione industriale, che K. Schwab, economista e fondatore del World Economic Forum, data al 2016, anno del rilancio dell’IA-machine learning che segue la crescita dei Big Data e l’iperconnessione globale e diffusa, cui derivano anche l’Internet of Things (IoT) e la robotica avanzata. È l’epoca dell’onlife, come l’ha battezzata il Prof. Luciani Floridi, quella in cui gli individui, costantemente connessi, si spostano fluidamente tra realtà virtuale e offline. Naturalmente tutto questo comporta contestualmente benefici e rischi a livello socioeconomico. Tra i primi, come rilevato in un rapporto di Accenture del 2019, l’IA può: (i) creare una nuova forza di lavoro virtuale, c.d. automazione intelligente, (ii) integrare e migliorare le competenze, le capacità delle forze lavoro esistenti e il capitale fisico, (iii) favorire innovazioni nell’economia, diventando in tal modo il catalizzatore di cambiamenti strutturali nell’economia e rendendo il lavoro umano più interessante, posto che la parte noiosa, stressante e ripetitiva andrebbe delegata alle macchine. I rischi socioeconomici connessi all’avanzata dell’IA sono sostanzialmente quelli di aumentare a livello globale e in maniera esponenziale le disuguaglianze già presenti nelle fasce di popolazione. Ci sono, poi, i rischi non economici, collegati alla nostra privacy e indipendenza di pensiero. A fronte dei benefici dati dall’applicazione sempre più evoluta e su larga scala dell’IA in settori come lo sviluppo delle smart cities, la medicina, l’agricoltura e la connessa lotta alla fame nel mondo, così come quella al riscaldamento globale e ai cambiamenti climatici pone, dobbiamo fare i conti con rischi di carattere etico, sociale e politico, che possono mettere in grave pericolo la nostra libertà individuale, morale e intellettuale. Gli Autori individuano i seguenti tra i rischi più rilevanti e urgenti:

  • sorveglianza e controllo sociale di massa
  • danni per via di eccesso di fiducia dell’IA
  • danni diretti causati dall’IA usata a fin di male
  • sottrazione o indebolimento della responsabilità umana
  • aumento delle discriminazioni sociali e personali
  • profilazione massiva e indirizzamento delle scelte politiche e commerciali di individui e gruppi sociodemografici

L’analisi di tutti questi aspetti è assai approfondita, richiama altri Autori contemporanei, tra cui la Professoressa Shoshana Zuboff e le sue tesi espresse in Il Capitalismo della sorveglianza, testo ormai classico per comprendere questi temi.

Dopo aver analizzato, nei successivi capitoli, lo sviluppo dell’IA in vari settori della nostra quotidianità, a casa, in automobile, al lavoro e in sanità, l’ultimo capitolo si sofferma sull’illustrazione di quali sono i diritti in pericolo e di quali strumenti il diritto è attualmente dotati per affrontarli.

Nel diritto dell’Unione Europea ad oggi non esiste una definizione consolidata e condivisa di IA e, anche qualora si raggiungesse una definizione, certo è che essa contemplerà aspetti che toccheranno disparati ambiti di mercato, scientifici e culturali. Ne consegue che le regole etiche, giuridiche o etico-giuridiche dovranno essere trasversali e abbracciare, con le dovute differenze, settori diversi.

Al momento esistono poche regole, mutuate dal diritto vigente, applicabili per analogia ad alcuni aspetti connessi all’IA. Tra queste si possono ricordare (i) le norme e la giurisprudenza in materia brevettuale per tutelare gli investimenti necessari all’elaborazione e allo sviluppo di soluzioni di IA, (ii) il Considerando 71 e l’art. 22 del GDPR sul diritto dell’interessato a non essere sottoposto a una decisione basata unicamente sul trattamento automatizzato, compresa la profilazione, che produca effetti giuridici che lo riguardano o che incida in modo analogo significativamente sulla sua persona.

Fermo restando che, con l’avanzare delle tecnologie e dell’utilizzo dell’IA, le questioni etiche e giuridiche che si pongono sono sempre differenti e ancora non possiamo conoscerle tutte, si possono comunque già identificare ambiti di riflessione chiari ma ancora non risolti, come la responsabilità per i danni arrecati dalle soluzioni di IA o le conseguenze di scelte che aumentano la discriminazione, o errate quando è la IA a decidere in ambito amministrativo o della giustizia.

Da ultimo, gli Autori indicano quali sono, sempre allo stato attuale, le questioni di diritto ed etica ancora da esplorare e le relative soluzioni da identificare. Siamo di fronte a problemi di metodo e di merito. I problemi di metodo devono rispondere a due domande fondamentali: (i) attraverso quali strumenti regolamentari deve essere governata la relazione tra IA e società nonché tra uomini e macchine nei diversi ambiti di applicazione? (ii) Quali che siano gli strumenti regolamentari che si deciderà di utilizzare, a chi toccherà l’applicazione delle regole? In breve, le regole dovranno essere giuridiche ed etiche e la governance dell’IA dovrebbe essere sovranazionale e globale. A tal proposito, gli Autori guardano all’esempio del GDPR, che ha posto la privacy come diritto fondamentale meritevole di una protezione particolarmente stringente che, prima facie, può rappresentare un freno per il business, mentre, a ben vedere, concilia il crescente trattamento dei dati personali anche nel business con il rispetto dell’individuo a cui quei dati si riferiscono, tanto da essere preso come esempio da altri ordinamenti giuridici per la regolamentazione del trattamento dei dati personali all’interno di Stati diversi da quelli europei. La proposta di risposta alla seconda domanda segue anch’essa l’esempio contenuto nel GDPR: attivare un doppio binario che vede giudici e autorità indipendenti concorrere tra loro. Alla questione su chi dovrà garantire l’applicazione delle norme, si aggiunge quella collegata al fatto che, nell’ambito in cui ci troviamo, spesso è difficile veder applicate le regole dettate in linea teorica. Gli Autori ravvedono una soluzione a questo problema subordinando l’immissione in commercio e l’impiego di ogni applicazione di IA a una preventiva valutazione di impatto etico-giuridico, da compiersi sul modello della DPIA introdotta dal GDPR. A questo dovrebbe aggiungersi la traduzione dei diritti e doveri etico-giuridici in vincoli algoritmici e di redazione del codice alla base dell’IA.

Come si è visto sopra, è urgente l’esigenza di garantire che le soluzioni di IA siano progettate, prodotte e commercializzate nel rispetto di principi etici categorici, sovrapponibili ai diritti fondamentali codificati nella Dichiarazione universale dei diritti umani, nella Carta dei diritti fondamentali dell’Unione Europea e nella Costituzione italiana, ampiamente condivisi tra gli attori coinvolti e, in genere, elaborati nell’ambito di soggetti pubblici e privati. Essi spaziano dalla dignità umana, alla libertà e diritti civili, non discriminazione, sostenibilità e via dicendo.

Se i principi sono facilmente identificabili, la loro traduzione in diritti da riconoscere agli utenti delle soluzioni e applicazioni di IA o a chiunque si possa vedere la propria esistenza modificata dall’uso di una di esse, risulta più ardua. Gli Autori tracciano alcune idee che ritengono prioritarie, tra cui il diritto di tutte le persone all’educazione all’IA, soprattutto con riferimento ai rischi e alle potenzialità ad essa connessi; la necessità di aumentare la trasparenza relativa agli utilizzi che l’IA ha sui cittadini, che si deve tradurre in diritto all’informazione e spiegabilità delle scelte algoritmiche.

Concludo questo contributo tornando alle parole espresse dal Prof. Francesco Pizzetti nella Prefazione:

L’ambizione [di questo libro] è quella di mettere costantemente in rilievo le dimensioni dei cambiamenti in atto e di quelli oggi già prevedibili, dei problemi che pongono, delle prime ancora incerte e non esaustive risposte che il dibattito appena cominciato sta cercando di offrire… La sfida per gli esseri umani è di restare padroni del proprio futuro, evitando in ogni modo che il futuro dell’umanità sia controllato, condizionato e in un certo senso persino determinato da ciò che oggi, ancora molto confusamente, chiamiamo Intelligenza Artificiale, perché non sappiamo ancora capire davvero e fino in fondo che cosa siano le nuove tecnologie e come gli esseri umani possano convivere con ciò che essi stessi stanno ogni giorno sviluppando.”


Autore:


en_US