Il termine intelligenza artificiale potrebbe far pensare a macchine dotate di vera conoscenza, in grado di ragionare e consapevoli di ciò che stanno facendo; le cose, invece, sono molto diverse: il fatto che un software impari a riconoscere se in una foto sono presenti dei gatti non significa che sappia che cosa sia un gatto; allo stesso modo, il computer che ha battuto Lee Sedol, il maestro di Go, non aveva la più pallida idea di che cosa stesse facendo (e lo stesso vale per lo storico esempio riguardante le partite a scacchi tra Deep Blue di IBM e Gary Kasparov).
Questi software, insomma, non sono in grado di pensare; sono semplicemente capaci di processare una quantità tale di dati da riuscire a metterli in relazione tra loro, identificando collegamenti e differenze in un paniere di dati o calcolando statisticamente, per esempio, quale mossa di un determinato gioco ha la maggior probabilità di avere successo.
I metodi utilizzati per ottenere questi risultati sono principalmente due: il machine learning (apprendimento automatico) e la sua più recente evoluzione, il deep learning (apprendimento approfondito), un sistema dalle enormi potenzialità che si basa sugli stessi princìpi ma che, a differenza del machine learning, lavora su numerosi strati di “reti neurali” che simulano il funzionamento del cervello, organizzando l’analisi dei dati su diversi livelli e raggiungendo così una maggiore capacità di astrazione.
Le origini di questa branca dell’intelligenza artificiale risalgono agli anni ’50 e al lavoro di scienziati come Marvin Minsky, Frank Rosenblatt, Seymour Papert e Arthur Samuel (quest’ultimo ha coniato una importante definizione di machine learning: “una branca dell’intelligenza artificiale che fornisce ai computer l’abilità di apprendere senza essere stati esplicitamente programmati”). Per decenni, però, il fatto che questa tecnica non consentisse di raggiungere una vera e propria intelligenza artificiale, ma solo una sorta di calcolo statistico estremamente evoluto, le ha impedito di ottenere grande popolarità nel mondo accademico.
Nel caso del machine learning, la macchina scopre da sola come portare a termine un compito che le è stato dato
L’atteggiamento generale ha iniziato a cambiare solo negli anni ’90, quando è diventato evidente come il machine learning consentisse di risolvere parecchi problemi di natura pratica; il salto di qualità che l’ha infine imposto come strada maestra nel mondo della AI è avvenuto più recentemente, grazie alla crescente potenza di calcolo dei computer e a una mole senza precedenti di dati a disposizione, che ne hanno aumentato esponenzialmente le potenzialità.
Alla base di questa tecnica, c’è l’utilizzo di algoritmi che analizzano enormi quantità di dati, imparano da essi e poi traggono delle conclusioni o fanno delle previsioni. Per questo, nella definizione di Arthur Samuel, si parla di “abilità di apprendere senza essere stati esplicitamente programmati”: a differenza dei software tradizionali, che si basano su un codice scritto che spiega loro passo dopo passo cosa devono fare, nel caso del machine learning la macchina scopre da sola come portare a termine l’obiettivo che le è stato dato.
Un software che deve imparare a riconoscere un numero scritto a mano, per esempio il 5, viene quindi sottoposto a centinaia di migliaia di immagini di numeri scritti a mano, in cui è segnalato solo se sono dei 5 oppure non lo sono. A furia di analizzare numeri che sono o non sono dei 5, la macchina impara a un certo punto a riconoscerli, fornendo una percentuale di risposte corrette estremamente elevata. Da qui a essere davvero intelligenti, ovviamente, ce ne passa: basti pensare che, per imparare a riconoscere un certo numero, un’intelligenza artificiale deve essere sottoposta a migliaia e migliaia di esempi; a un bambino di quattro anni basta vederne cinque o sei.
Lo stesso metodo probabilistico è alla base di una quantità di operazioni che quotidianamente ci semplificano la vita: il machine learning viene impiegato dai filtri anti-spam per eliminare la posta indesiderata prima ancora che arrivi nelle nostre caselle, per consentire a Siri di capire (più o meno) che cosa le stiamo dicendo e a Facebook per indovinare quali tra i nostri amici sono presenti nelle foto; permette ad Amazon e Netflix di suggerirci quali libri o film potrebbero piacerci, a Spotify di classificare correttamente le canzoni in base al loro genere musicale. Già oggi, insomma, utilizziamo quotidianamente l’intelligenza artificiale, spesso senza nemmeno rendercene conto.