Skip to main content

Intelligenza Artificiale: opportunità o pericolo?

Brevi note a: M. Pierani – M. Scialdone, Vivere con l’Intelligenza artificiale – società, consumatori e mercato, ed. espress, Torino, 2021

di Manuela Bianchi


La più grande differenza tra l’Intelligenza Artificiale del presente e quella del passato è che adesso abbiamo a disposizione la potenza di calcolo necessaria, e che le grandissime quantità di dati disponibili, e le tecniche per gestirli, consentono all’Intelligenza Artificiale di ieri di esprimere appieno le sue potenzialità.”

Questa frase, riportata dagli Autori nelle prime pagine di “Vivere con l’Intelligenza Artificiale – società, consumatori e mercato”, è stata pronunciata dal Prof. Giuseppe F. Italiano e riassume emblematicamente i due elementi cardine cui riferirsi per comprendere l’analisi dell’impatto dell’Intelligenza Artificiale sulla società, i consumatori e il mercato, ossia i dati e le tecniche per gestirli.

Mai come ora si è potuto disporre di una quantità di dati proveniente da fonti disparate, talvolta condivisi volontariamente, spesso prodotti senza averne consapevolezza, e in continuo e costante aumento, tanto che ormai si parla comunemente di Big Data, a cui la dottrina riconosce le caratteristiche note come 4V: Velocità, Varietà, Volume e Valore, a cui sono state poi aggiunte Veridicità, Valenza e Visualizzazione. Lo sviluppo altrettanto veloce delle tecnologie per produrre dati e diffonderli ha fatto esplodere la domanda e modificato l’uso di tali informazioni. Il Parlamento europeo, nella Risoluzione del 14 marzo 2017 relativa alle implicazioni dei Big Data sui diritti fondamentali, ha definito i primi come “la raccolta, l’analisi e l’accumulo ricorrente di ingenti quantità di dati, compresi i dati personali: essi provengono da una serie di fonti diverse, che sono oggetto di un trattamento automatizzato mediante algoritmi informatici e tecniche avanzate di trattamento dei dati, che usano sia informazioni memorizzate, sia in streaming, al fine di individuare determinate correlazioni, tendenze e modelli.”

Qual è il rapporto tra Big Data e Intelligenza Artificiale? I sistemi di Intelligenza Artificiale apprendono e diventano sempre più precisi attraverso l’analisi dei dati che vengono loro forniti, con la conseguenza che più dati sono sottoposti al sistema, più questo impara. In tal modo le macchine continuano a imparare, diventano sempre più precise, elaborano una quantità di dati impensabile per un essere umano, che può così essere sostituito nei più diversi ambiti da sistemi più efficienti e più veloci. Considerando che i fenomeni tecnologici non possono essere scissi dal contesto sociale, il rischio di questa frenetica evoluzione delle macchine è lasciare il governo della società al controllo degli algoritmi, senza un sistema giuridico e politico che riesca a tenere il passo, passando così dalla democrazia all’algocrazia. Questo è un punto delicato, su cui tutti coloro che si occupano di Intelligenza Artificiale si soffermano, e così fanno anche Pierani e Scialdone, che prendono in esame l’aspetto “etico” dell’Intelligenza Artificiale con riferimento a ogni argomento trattato nei singoli capitoli, richiamando, tra l’altro, a fondamento della loro posizione, la Carta Etica europea sull’uso dell’Intelligenza Artificiale nei sistemi giudiziari adottata il 3 dicembre 2018 dalla Commissione per l’Efficienza della Giustizia del Consiglio d’Europa.

Gli Autori affrontano tre macrotematiche: il valore economico dei dati, la concorrenza e le pratiche commerciali scorrette e lo sviluppo sostenibile. Quanto al tema del valore economico dei dati, si sottolinea l’importanza di una sensibilizzazione anche del cittadino/consumatore, che appare il contraente non solo debole commercialmente rispetto all’imprenditore, ma anche svantaggiato e i cui diritti fondamentali sono messi a rischio dalla cessione, più o meno consapevole, dei propri dati gratuitamente in cambio di servizi forniti da piattaforme telematiche. Ne consegue che “la vera sfida … è trovare il coraggio di superare la contrapposizione spesso sterile e infruttuosa tra diritti fondamentali di cittadini e consumatori e la libertà imprenditoriale.” Una delle possibili soluzioni appare il reddito di profilazione, ovvero un reddito economico per il soggetto che sceglie consapevolmente di conferire i propri dati a una piattaforma. Tema, questo, non nuovo e già presente, ad esempio, nella Direttiva UE 770/2019.

Il capitolo dedicato all’Intelligenza Artificiale, concorrenza e pratiche commerciali scorrette sottolinea il pericolo dei bias dell’Intelligenza Artificiale, ovvero i pregiudizi che, in modo involontario, possono prodursi quando si progettano processi decisionali automatizzati. A tal proposito la strategia italiana è quella di un approccio antropocentrico, che tuteli l’individuo in quanto consumatore e utente che abbia diritto a una spiegazione comprensibile ogni volta che un sistema di Intelligenza Artificiale prenda decisioni con forte impatto sulla sua sfera personale. In particolare, ci sono sei aspetti meritevoli di attenzione: (i) riconoscimento di una responsabilità civile per i danni causati dai sistemi di Intelligenza Artificiale; (ii) potenziamento e istituzionalizzazione della nudge unit[1] italiana, soprattutto rispetto allo studio del comportamento del consumatore online; (iii) contrasto a nuove forme di pubblicità ingannevole attuate dai sistemi di Intelligenza Artificiale, in quanto più difficili da percepire da parte del consumatore-utente; (iv) di conseguenza, predisposizione di un piano d’azione per i consumatori di Intelligenza Artificiale che preveda l’adeguamento del quadro di protezione dei consumatori medesimi alla nuova realtà di mercato; (v) composizione stragiudiziale delle controversie tra imprese e associazioni di consumatori basata su tecnologia di Intelligenza Artificiale, che garantisca il risarcimento semiautomatico in caso di danni; (vi) contrasto alla concentrazione dei dati nelle mani di poche aziende private.

L’ultimo capitolo affronta il tema del rapporto tra Intelligenza Artificiale e sviluppo sostenibile, portando l’esempio di campi in cui la prima può essere di grande aiuto per una società sempre più sostenibile, dalla transizione ecologica, al monitoraggio dei consumi energetici etc. Interessante, alla fine del capitolo, è il paragrafo dedicato ai suggerimenti per creare fiducia nei consumatori comprendendo meglio il loro punto di vista.

In conclusione, il volume, di facile lettura anche per chi approccia per la prima volta la materia trattata e chiaro finanche nei passaggi più complessi, riflette e fa riflettere sul potenziale dell’Intelligenza Artificiale e sulla necessità di un ritorno a un antropocentrismo, inteso come nuova centralità dell’intelligenza umana. Come dicono gli Autori “dovremo essere noi, come singoli individui e come società in generale, a creare una governance adeguata che consentirà di sfruttare appieno le potenzialità offerte dai sistemi di Intelligenza Artificiale, salvaguardando i diritti fondamentali dell’essere umano”.


[1] Il Behavioral Insight Teams, noto anche ufficiosamente come “Nudge Unit”, è un’organizzazione globale a scopo sociale con sede nel Regno Unito, che genera e applica approfondimenti comportamentali per informare la politica e migliorare i servizi pubblici, seguendo la teoria dei “nudge”.  Questa teoria è un concetto che, nel campo dell’economia comportamentale e della filosofia politica, sostiene che suggerimenti positivi o aiuti indiretti possono influenzare i motivi e gli incentivi che fanno parte del processo di decisione di gruppi e individui, con la stessa efficacia di leggi, istruzioni dirette e coercizioni. Nudge Italia è stata fondata nel 2014 e opera come Gruppo di Interesse Speciale (GIS) all’interno dell’Istituto Europeo per lo Studio del Comportamento Umano (IESCUM).


Autrice:

Manuela Bianchi

it_IT