La storia dell’intelligenza artificiale, da Turing ad oggi
di Maria Teresa Stecher
“Can machines think?”
La domanda è estremamente attuale, sebbene risalga al 1950. È, infatti, l’incipit dell’articolo di Alan Turing, Computing machinery and intelligence, che affrontava il tema scientifico più all’avanguardia di quegli anni: l’Intelligenza Artificiale. Tuttavia, cos’era questa c.d. “intelligenza artificiale”? Dare una definizione era alquanto complesso, tanto che Turing aggirò abilmente questo compito formulando un test, noto come “Test di Turing” o “Imitation game”. Lo scopo era quello di valutare la capacità della macchina di avere un comportamento intelligente, inteso come “umano”. Il test prevedeva di porre un giudice di fronte ad un terminale, tramite cui comunicare con due entità: un uomo e un computer. Se il giudice non riusciva a distinguere tra uomo e macchina, allora il computer aveva passato il test, e poteva essere definito “intelligente”.
Perché nel 1950 Turing affrontava questi temi? Come era nato in lui questo interesse? L’ambizione umana di “forge the gods” è storicamente risalente, dagli automi costruiti nell’antico Egitto (la statua che eleggeva i faraoni) all’”anatra digeritrice” del XVIII secolo. Nondimeno, è solo dal 1940 che si sviluppa concretamente la disciplina scientifica dell’intelligenza artificiale. In quegli anni, infatti, grazie ad una particolare convergenza storica e scientifica, si è assistito ad importanti scoperte. La neurologia scoprì che la struttura interna del cervello è composta da una rete di neuroni che trasmettono impulsi elettrochimici, Norbert Wiener sviluppò le teorie cibernetiche di controllo e stabilità di reti elettriche, Alan Turing la teoria del calcolo, Claude Shannon la teoria dell’informazione. Nacque, così, un dubbio tra questi scienziati: si può costruire un cervello elettronico? È proprio da quest’impulso che ebbe origine l’idea di una macchina pensante, di un automa in grado di compiere azioni umane, imparare, parlare come un umano. Tra il 1940 e il 1973, dunque, ci fu un periodo di incessante ed incalzante ricerca, che portò ad enormi successi. Cruciale è il Dartmouth Summer Research Project del 1956: da questo momento si fa coincidere la nascita della Intelligenza Artificiale come vera e propria disciplina scientifica, e se ne da una definizione: “a science and a set of computational technologies that are inspired by – but typically operate quite differently from – the ways people use their nervous systems and bodies to sense, learn, reason and take action”[1]. L’evento, organizzato dallo studioso John McCarthy, riunì le menti più importanti di quel periodo, come M. Minsky, A. Newell, H. Simon, N. Rochester, C. Shannon, formando un momento unico ed irripetibile nella storia della AI.
Le invenzioni furono molteplici:
Nel 1943 McCulloch e Walter Pitts crearono il primo modello di rete neurale ispirato al cervello.
Nel 1951, Marvin Misnsky e Dean Edmonds svilupparono SNARC: il primo “neuro computer”.
Nel 1957 A. Newell e H. Simon produssero il GPS (general problem solver): un meccanismo che, tramite un processo inferenziale ispirato al ragionamento umano, poteva agire e manipolare oggetti all’interno della rappresentazione di una stanza.
Tra il 1964 e il 1966 Joseph Weizenbaum creò ELIZA: una delle pionieristiche applicazioni dell’elaborazione del linguaggio naturale. La macchina era infatti in grado di simulare la conversazione con esseri umani usando semplici sostituzioni e regole di ricerche per corrispondenza (pattern matching). ELIZA viene ricordata come un passo fondamentale nella storia della AI, perché fu la prima volta che si sviluppò un’interazione uomo-macchina con l’obbiettivo di creare l’illusione di una conversazione tra esseri umani. È tuttavia importante comprendere come la storia dell’intelligenza artificiale sia pervasa di alti e bassi. Infatti, nonostante le innumerevoli scoperte dei primi anni, l’eccitazione iniziò a scemare nel decennio 1970-1980: le aspettative e le speranze, che erano state millantate dagli scienziati, si rivelarono troppo rosee ed ambiziose. Proprio negli ambiti che sembravano più semplici, come la traduzione automatica o la riproduzione del linguaggio naturale, l’AI aveva le maggiori difficoltà. C’erano, inoltre, complicazioni legate al limitato potere di calcolo, difficoltà e intrattabilità dei problemi, gestione di grandi quantità di dati. Nacquero, così, le prime voci critiche: Hubert L. Dreyfus nel libro What computers can’t do, attaccò i ricercatori affermando che l’AI non fosse realizzabile dal punto di vista filosofico; Weizenbaum, ideatore di ELIZA, espresse il dubbio: “È morale creare l’intelligenza artificiale?”. Si uscì da questo periodo di stagnazione nel 1980, anche se solo per breve tempo. Nel 1980 a Carnegie Mellon si sviluppò XCON, un sistema esperto che consentì alla Digital Equipment Corporation di risparmiare circa 40 milioni di dollari l’anno. Sull’onda di questo successo, si tornò a finanziare e investire: nacquero nuovi sistemi basati su conoscenza e ingegneria della conoscenza, che realizzavano programmi in grado di giocare a scacchi allo stesso livello di giocatori umani. Ancora una volta, tuttavia, gli investimenti e la fiducia nella AI si rivelarono una bolla economica, che diede i primi segni nel 1987 con la crisi di molte aziende hardware specializzate in computer dedicati all’intelligenza artificiale. Fu così che ancora una volta lo studio dell’intelligenza artificiale subì una battuta d’arresto, che permarrà fino alla metà degli anni ’90. Dopo l’ulteriore fallimento, lo studio della intelligenza artificiale cambiò approccio: da una ricerca basata su intuizioni si passò ad una ricerca imperniata su basi teoriche, risultati matematici dimostrati ed estensiva sperimentazione.
Questa parziale rifondazione, unita a disponibilità di elaboratori sempre più veloci e a nuove ondate di finanziamenti, portò significativi risultati:
Dal 1995 in poi si ebbe così una rinascita dell’intelligenza artificiale, rinascita che persiste fino ai giorni nostri.
Nel 1996 Garry Kasparov, campione mondiale di scacchi, fu battuto dalla macchina Blue Deep.
Nel 2005 un veicolo a guida autonoma vinse la DARPA Grand Challenge.
Nel 2007, un veicolo a guida autonoma vinse la DARPA Urban Challenge.
Oggi, i veicoli a guida autonoma sono divenute realtà comune. Negli ultimi venti anni il progresso è avanzato a ritmi spaventosi, consentendo di raggiungere traguardi impensati. Si sono sviluppate avanzate tecniche di machine learning, sistemi di mining e sistemi predittivi. L’AI pervade oggi ogni aspetto della nostra vita quotidiana: il nostro cellulare conosce le nostre preferenze e i nostri gusti, si sblocca tramite riconoscimento del volto, indica quale percorso utilizzare, comunica quanto tempo impiegheremo ad arrivare da un posto all’altro.
Ma cosa è cambiato oggi rispetto a venti anni fa? Cosa ha permesso uno sviluppo così impressionante in così poco tempo?
Le matrici sono principalmente due. La prima è chiaramente di natura scientifica: sono aumentate la potenza e la capacità di calcolo di elaboratori, gli algoritmi si sono fatti più complessi e sofisticati. La seconda è di natura sociale: la popolazione ha innescato, inconsapevolmente, un processo di miglioramento dell’Intelligenza Artificiale, consentendole di avere accesso a milioni di dati personali e non, tramite l’utilizzo della tecnologia. È, difatti, l’enorme disponibilità di dati il discrimine fondamentale tra il passato e il presente. Dati che provengono dalla digitalizzazione di documenti, da qualsiasi attività compiuta su internet, ricerche, acquisti, pagine salvate, contenuti pubblicati su piattaforme come Instagram o Linkedin. Le nostre informazioni sono il petrolio della futura economia, e gli algoritmi e l’Intelligenza Artificiale sono gli strumenti imprescindibili per trasformare quei dati in potere economico. Si legano, quindi, in modo fondamentale la popolazione, l’economia e l’intelligenza artificiale. Stiamo vivendo in un momento di cambiamento storico, sotto aspetti culturali, economici e tecnologici.
Qual è quindi lo scenario che si presenta? Le alternative sono due. La prima, un futuro distopico in cui si avvera il paradigma “apprendista-stregone”, che vede l’uomo sopraffatto dalla stessa tecnologia da lui creata. La seconda, un futuro in cui l’intelligenza artificiale viene utilizzata dall’uomo in modo etico e responsabile, in cui si bilanciano l’umanità e l’artifizio. È proprio questo senso di responsabilità che dovrà ispirare gli scienziati del presente e del futuro, per creare un mondo in cui tecnologia e umanità possano convivere in equilibrio. Ed è con questo obiettivo di bilanciamento che le nuove regolamentazioni giuridiche dovranno regolamentare questi strumenti, al fine di garantire una efficace convivenza.
[1]Italiano G. F., “Intelligenza artificiale: passato, presente, futuro” in Pizzetti F. (a cura di) Intelligenza artificiale, protezione dei dati personali e regolazione, Giappichelli, 2018, 206 ss.
Bibliografia
- Italiano G. F., “Intelligenza artificiale: passato, presente, futuro” in Pizzetti F. (a cura di) Intelligenza artificiale, protezione dei dati personali e regolazione, Giappichelli, 2018, 206 ss.
- Angelini R., “Intelligenza artificiale e governance. Alcune riflessioni di sistema”. In Pizzetti F. (a cura di) Intelligenza artificiale, protezione dei dati personali e regolazione, Giappichelli, 2018, 293 ss.
- Intelligenza artificiale, storia. http://riccardopuopolo2001.altervista.org
Autore: