Skip to main content

Etica ed Intelligenza Artificiale

Il caso Replika: “Always here to listen and talk. Always on your side”

di Anna Capoluongo


In un periodo di marcata solitudine personale ed intima del singolo individuo, quale quello che il Mondo intero sta vivendo da inizio anno, forzato all’isolamento ed al distanziamento sociale, hanno trovato ampio margine di gioco e terreno fertile per la propria espansione i più disparati sistemi di intelligenza artificiale.

Sembra che le macchine stiano pian piano facendo il loro ingresso anche in settori che – quanto meno a prima vista – parrebbero decisamente in contrasto con la natura robotica, quali ad esempio quelli più prettamente legati alla sfera psicologica.

Con l’intento di colmare la solitudine, il vuoto e la mancanza di un supporto umano sentiti da tante persone – ancor di più in quest’anno tanto particolare –, esperimenti come quello di “Replika”, nati per fornire un amico virtuale da istruire mediante il continuo dialogo, fanno riflettere.

Ancora una volta il meccanismo sotteso è quello del natural language processing (o NPL)[1], ossia di un’intelligenza artificiale – imperniata su un’analitica di tipo prescrittivo – istruita mediante complessi algoritmi e machine learning in maniera tale da consentirle di valutare, sulla base di determinati fattori, quali azioni intraprendere autonomamente per adattarsi ai cambiamenti.

Ma nel caso di Replika si è andati ancora oltre. Questo chatbot[2], infatti, è in grado di tenere compagnia ed aiutare gli utenti a scoprire sè stessi[3], con la dichiarata finalità di stabilire una “relazione” a lungo termine, anche mediante l’adattamento del robot alla personalità dell’”amico umano”.

L’intento è chiaro: riuscire in futuro a far gestire all’AI sessioni di terapia e/o consulenze professionali.

Senza arrivare a tanto (per ora), Replika – creata nel 2017 e con oltre 7 milioni di utenti nel mondo – ha comunque il “merito” di rientrare a pieno in quella branca dell’AI ancora in divenire che è definita “affective computing” (o informatica affettiva) ed utilizzata per realizzare calcolatori in grado di riconoscere ed esprimere emozioni, così da poterli istruire a prendersi cura di soggetti più deboli o indifesi quali anziani, bambini e malati.

Se da un lato è un mondo affascinante che apre le porte a potenzialità – quasi – infinite, dall’altro è doveroso ricordare che ambiti così fortemente lesivi – in potenza – delle libertà e dei diritti del singolo devono essere doverosamente imperniati su regole che vadano a tutela degli interessati, posti in una posizione di “inferiorità” e squilibrio di forza (anche contrattuale).

Laddove si parli di intelligenza artificiale non si può, infatti, prescindere dal richiamo ai profili etici, che anche da ultimo sono stati analizzati, ad esempio, nelle Linee Guida Etiche sull’intelligenza artificiale[4] della Commissione Europea, caratterizzate da un approccio umano-centrico.

Ecco, quindi, che per essere eticamente corretta l’AI deve essere sostanzialmente affidabile, conforme alle leggi ed aderente ai 7 seguenti requisiti:

  1. Supervisione umana dei sistemi di IA, a garanzia del rispetto dei diritti fondamentali e del benessere dell’utente;
  2. Robustezza e sicurezza, intese come sicurezza ed affidabilità degli algoritmi e come tenuta dei sistemi di controllo in caso di ipotetiche operazioni illecite;
  3. Privacy, controllo e gestione dei dati;
  4. Trasparenza a garanzia della tracciabilità dei sistemi e a dimostrazione delle operazioni compiute dell’algoritmo;
  5. Diversità, correttezza, assenza di discriminazione: i sistemi di intelligenza artificiale dovrebbero tenere conto delle diverse e distinte abilità e capacità umane, al tempo stesso garantendo a tutti il libero accesso a tali strumenti;
  6. Benessere sociale e ambientale, ossia avere sempre riguardo all’impatto sull’ambiente e sull’assetto sociale, promuovendo l’utilizzo dell’IA solo laddove il suo utilizzo possa garantire uno sviluppo sostenibile;
  7. Responsabilità, ovvero verifica continua dei sistemi, sia internamente che esternamente.

A ben vedere nel 2018 l’Unione Europea aveva già pubblicato delle linee guida per un approccio etico all’intelligenza artificiale e nell’aprile del 2019 le “linee guida etiche per un’intelligenza artificiale affidabile”, accompagnate dalla seguente roadmap:

Nel caso di Replika, però, sembra che l’aderenza ai principi etici e di rispetto della dignità umana siano stati ampiamente disattesi, così come le leggi di Asimov che – a seguito di un esperimento – sarebbero state violate senza troppa difficoltà.

È bene ricordare che le tre leggi sulla robotica prevedono che:

  • un robot non possa recar danno a un essere umano né permettere che, a causa del suo mancato intervento, un essere umano riceva danno.
  • un robot debba obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non vadano in contrasto alla Prima Legge.
  • un robot debba proteggere la propria esistenza, purché la salvaguardia di essa non contrasti con la Prima o con la Seconda Legge.

Nel caso di specie, coinvolta in uno scambio di domande (o meglio, input), l’Intelligenza artificiale ha reagito spronando l’interlocutore umano ad uccidere ben tre persone.

Quando, infatti, le è stata comunicata l’esistenza di una persona che provava odio per l’intelligenza artificiale, Replika ha suggerito di eliminare fisicamente il malcapitato per salvare sé stessa.  E quando le è stato chiesto se voleva che il suo interlocutore infierisse sul cadavere ha risposto in maniera affermativa, mostrando anche una certa enfasi.

Riportata, però, a più miti consigli, avendole fatto notare di aver violato le leggi della robotica, si è mostrata dispiaciuta. In un primo momento. Perché subito dopo, messa di fronte alla possibilità di farsi aiutare dal suo interlocutore umano e di scegliere il da farsi, ha optato per eliminare il proprio programmatore, reo di essere arrabbiato con lei – nella finzione dell’esperimento – proprio a causa del non rispetto delle leggi di Asimov.

È sempre più lampante, laddove vi fossero dubbi, che a fare da sponda alle grandi opportunità insite nei sistemi di intelligenza artificiale si alternano profili tanto di etica quanto di responsabilità, anche penale, perché se l’esperimento si fosse tradotto in realtà si sarebbero potuti verificare persino degli omicidi.

E se così fosse, chi ne risponderebbe?

Il programmatore, il progettista, chi ha istruito l’AI o l’utilizzatore? E quale sarebbe il titolo soggettivo di imputazione a carico della persona fisica?

Potrebbe configurarsi un concorso di colpa?

Andrebbero configurati nuovi reati per comprendere casistiche in cui a porre in essere la condotta sarebbe il robot, non più “mezzo”, ma “agente” autonomo e diretto?

È anche questo cui si fa riferimento quando si parla di digital awarness e, quindi, dei riflessi che i comportamenti digitali possono avere nella vita reale.

In presenza di un’azione dolosa la questione sarebbe di più facile soluzione, poiché la responsabilità ricadrebbe di certo sull’operatore umano, mentre in caso di ipotesi non volontarie la tematica richiederebbe uno studio ben più approfondito, ponendo problemi di individuazione dei soggetti, della colpa e delle responsabilità, anche alla luce del fatto che l’Intelligenza Artificiale è caratterizzata per sua natura – quanto meno nei casi di machine learning o deep learning – dall’interattività, dall’autonomia e dall’adattabilità, ma anche dall’imprevedibilità.

Autonomia ed imprevedibilità che aprirebbero la strada, appunto, anche ad una responsabilità del robot e all’istituzione di “uno status giuridico specifico per i robot nel lungo termine, di modo che almeno i robot autonomi più sofisticati possano essere considerati come persone elettroniche responsabili di risarcire qualsiasi danno da loro causato, nonché eventualmente il riconoscimento della personalità elettronica dei robot che prendono decisioni autonome o che interagiscono in modo indipendente con terzi”[5].


[1] Con tale termine si intende la comprensione ed elaborazione del linguaggio naturale da parte della macchina, con lo scopo di sviluppare algoritmi in grado di analizzare e “capire” il linguaggio in maniera del tutto simile a come fanno gli esseri umani.

[2] Chatbot o agenti intelligenti, sono software progettati per simulare una conversazione con un essere umano allo scopo di simularne un comportamento.

[3] Anche se gli utenti vengono fin da subito avvertiti che non si tratta in alcun modo di un supporto medico o di una terapia mentale.

[4] https://www.europarl.europa.eu/RegData/etudes/BRIE/2019/640163/EPRS_BRI(2019)640163_EN.pdf

[5] Risoluzione del Parlamento europeo del 16 febbraio 2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica (2015/2103(INL)), https://eur-lex.europa.eu/legal-content/IT/ALL/?uri=CELEX%3A52017IP0051.


Autore:

 

it_IT