L’evoluzione dell’intelligenza artificiale: le 10 tappe fondamentali

L’intelligenza artificiale (AI) ha percorso una lunga strada prima di raggiungere il livello di sofisticazione che conosciamo oggi. Nonostante molte persone associno l’AI a sviluppi recenti come ChatGPT, le radici di questa tecnologia affondano nel passato, in un periodo ben precedente l’era digitale. In questo articolo esploreremo le 10 tappe fondamentali che hanno segnato l’evoluzione dell’intelligenza artificiale, dal primo concetto di rete neurale fino alle moderne intelligenze artificiali generative.

1943: la prima rete neurale artificiale

La storia dell’intelligenza artificiale inizia ufficialmente nel 1943, quando lo psicologo cognitivo Walter Pitts e il cibernetico Warren McCulloch pubblicarono un articolo accademico che cambiò per sempre il modo di concepire l’intelligenza meccanica. I due studiosi svilupparono il primo modello matematico di rete neurale artificiale, una struttura che, pur essendo solo teorica all’epoca, gettò le basi per lo sviluppo futuro di algoritmi di deep learning.

La teoria esposta da Pitts e McCulloch suggeriva che un sistema di neuroni artificiali poteva apprendere attraverso tentativi ed errori, rafforzando i collegamenti che portavano a soluzioni corrette e indebolendo quelli che conducevano a errori. Questo concetto di apprendimento autonomo è oggi alla base delle reti neurali che alimentano l’intelligenza artificiale moderna.

1950: il test di Turing

Nel 1950, il matematico inglese Alan Turing propose un’idea rivoluzionaria nel suo celebre articolo “Computing Machinery and Intelligence”. Turing si pose la domanda che ancora oggi affascina scienziati e filosofi: le macchine possono pensare? Per rispondere a questo quesito, Turing ideò un test, noto oggi come “Test di Turing”, che mira a determinare se una macchina possa essere considerata intelligente.

Il test prevede che una persona interagisca tramite una tastiera con due interlocutori, uno umano e uno artificiale, senza sapere quale dei due sia la macchina. Se l’osservatore non riesce a distinguere l’umano dall’intelligenza artificiale, la macchina viene considerata “intelligente”. Sebbene nessuna AI abbia ancora superato completamente il Test di Turing, questo rimane un punto di riferimento fondamentale nella storia dell’intelligenza artificiale.

1956: la nascita del termine “intelligenza artificiale”

Il 1956 è una data cruciale per l’AI, poiché in quell’anno fu coniato il termine “intelligenza artificiale”. Durante una conferenza tenutasi a Dartmouth College, nel New Hampshire, un gruppo di scienziati guidato da John McCarthy si riunì con l’obiettivo di esplorare come ogni aspetto dell’apprendimento o qualsiasi altra caratteristica dell’intelligenza potesse essere replicata da una macchina.

Sebbene gli obiettivi della conferenza non siano stati pienamente raggiunti, questa riunione segnò la nascita ufficiale del concetto di intelligenza artificiale, un termine che sarebbe rimasto centrale nel dibattito scientifico e tecnologico nei decenni successivi.

1958: il Mark I Perceptron

Nel 1958, Frank Rosenblatt, uno psicologo americano, presentò al mondo il Mark I Perceptron, il primo tentativo di creare una macchina capace di apprendere autonomamente attraverso una rete neurale artificiale. Questo dispositivo, finanziato dall’esercito statunitense, era composto da una complessa rete di cavi, motori e rilevatori di luce, progettata per riconoscere immagini e forme senza bisogno di intervento umano.

Le aspettative per il Perceptron erano altissime. Si pensava che potesse essere in grado di riconoscere e identificare oggetti, ma i risultati furono deludenti. Il Perceptron riuscì solo a distinguere la destra dalla sinistra, e con molta difficoltà. Tuttavia, rappresentò un passo importante nello sviluppo delle reti neurali, pur non soddisfacendo le speranze iniziali.

1966: Eliza, il primo chatbot della storia

Il 1966 segnò un’altra pietra miliare nella storia dell’intelligenza artificiale con la creazione di Eliza, il primo chatbot. Sviluppato da Joseph Weizenbaum, Eliza non utilizzava reti neurali né era un sistema di apprendimento autonomo, ma rappresentava un esperimento di simulazione di una conversazione umana.

Eliza era programmata per ripetere le affermazioni degli utenti sotto forma di domande, simulando così un terapeuta della scuola rogersiana. Nonostante la sua semplicità, Eliza scatenò un enorme interesse e dibattito, tanto da spingere Weizenbaum a spiegare che il programma non possedeva alcuna forma di intelligenza. Eliza è ricordato come il primo esempio di software capace di interagire con gli esseri umani in modo coerente.

1969: l’inverno delle intelligenze artificiali

Gli anni ’60 videro un rallentamento significativo nello sviluppo dell’intelligenza artificiale, noto come “l’inverno delle intelligenze artificiali”. Questo periodo iniziò nel 1969, quando due pionieri della AI, Marvin Minsky e Seymour Papert, pubblicarono un libro intitolato “Perceptrons”. In questo saggio, i due studiosi criticarono aspramente le reti neurali, sostenendo che esse fossero incapaci di risolvere problemi complessi.

Questa critica, combinata con i limitati successi pratici dell’apprendimento autonomo fino a quel momento, portò a un drastico calo degli investimenti e dell’interesse accademico per l’intelligenza artificiale. Il cosiddetto “inverno” durò decenni, rallentando significativamente il progresso nel campo.

1997: DeepBlue sconfigge Garry Kasparov

Dopo decenni di silenzio, l’intelligenza artificiale tornò sotto i riflettori nel 1997, quando DeepBlue, un supercomputer sviluppato da IBM, sconfisse il campione mondiale di scacchi Garry Kasparov. Questo evento segnò una svolta significativa, dimostrando le capacità della AI di risolvere problemi altamente complessi.

DeepBlue non era una rete neurale, ma un esempio di “intelligenza artificiale simbolica”, dove tutte le possibili mosse degli scacchi erano state programmate nel sistema. Sebbene Kasparov vinse alcune partite successive, la vittoria di DeepBlue rappresentò un’importante conquista per la AI, che da allora cominciò a ricevere maggiore attenzione e investimenti.

2012: AlexNet e la rivoluzione del deep learning

Il 2012 segnò l’inizio di una nuova era per l’intelligenza artificiale, con l’avvento del deep learning. In quell’anno, un sistema chiamato AlexNet, sviluppato da un team di ricercatori guidati da Geoff Hinton, vinse la prestigiosa ImageNet Challenge, una competizione che valutava le capacità dei software di riconoscimento delle immagini.

AlexNet non solo vinse la competizione, ma superò di gran lunga tutti i concorrenti, dimostrando la superiorità del deep learning rispetto ai metodi tradizionali. Questo successo fu reso possibile dall’enorme quantità di dati disponibili online e dai progressi nel potere computazionale, che permisero alle reti neurali di addestrarsi su set di dati enormi.

2016: AlphaGo batte il campione mondiale di Go

Nel 2016, un altro sistema di intelligenza artificiale, AlphaGo di Google DeepMind, fece la storia sconfiggendo uno dei migliori giocatori di Go al mondo, Lee Sedol. Il Go, un gioco di strategia estremamente complesso, era considerato da molti impossibile da padroneggiare per una macchina, a causa del numero quasi infinito di possibili mosse.

AlphaGo, utilizzando tecniche avanzate di deep learning e apprendimento rinforzato, dimostrò invece che le AI erano in grado di superare anche questo ostacolo. Questa vittoria segnò un altro importante passo avanti nel campo dell’intelligenza artificiale, evidenziando le potenzialità future delle reti neurali.

2020: OpenAI e il lancio di GPT-3

L’ultima tappa di questo viaggio nella storia dell’intelligenza artificiale è il lancio di GPT-3 da parte di OpenAI nel 2020. GPT-3, un modello di linguaggio naturale basato su algoritmi di deep learning, rappresenta un salto in avanti significativo nel campo dell’elaborazione del linguaggio naturale. Addestrato con 800 gigabyte di dati e dotato di 200 miliardi di parametri, GPT-3 ha dimostrato una capacità di scrivere testi fino ad allora sconosciuta.

Gli algoritmi di deep learning si sono rapidamente diffusi in vari ambiti: selezionano ciò che vediamo sui social media, ci consigliano acquisti online, suggeriscono film e completano frasi nelle email. Tuttavia, GPT-3 ha portato queste capacità a un livello superiore, riuscendo persino a scrivere un lungo articolo per il Guardian1. Questo modello ha segnato l’alba delle intelligenze artificiali generative, capaci di creare non solo testi, ma anche immagini, video e musica basandosi su comandi in linguaggio naturale.

Due anni dopo, nel novembre 2022, OpenAI ha presentato ChatGPT, un chatbot basato su GPT-3, che ha ulteriormente rivoluzionato il mondo dell’intelligenza artificiale. Da allora, il panorama dell’IA non è più stato lo stesso.

Leggi anche: Come impedire a X di usare i tuoi post per addestrare Grok

Leggi anche...