Il computer calcola
ma non sa “pensare”

I limiti cognitivi del machine learning, l’apprendimento delle macchine nell’intervista a Giorgio Masiero, esperto di intelligenza artificiale

L’emozione gioca un ruolo primario nell’intelligenza umana, in una relazione continua con l’ambiente. È questo il fattore che rende impossibile alla macchina forme di conoscenza che non siano programmate e pilotate dall’uomo. Di grande interesse la conferenza che il fisico teorico Giorgio Masiero ha tenuto ieri all’Università Cattolica di Milano, coordinato dalla professoressa Lucia Urbani Ulivi, filosofa teoretica, curatrice del recente “The Systemic Turn in Human and Natural Science” (Springer), proponendo una lettura sistemica dell’Intelligenza Artificiale. Una chiave interpretativa che smonta le pretese del Machine Learning - l’apprendimento delle macchine - per aprire una prospettiva ancora più suggestiva, se possibile, quella dell’intelligenza integrata uomo/macchina.

Dottor Masiero, che intelligenza è l’intelligenza artificiale (IA)? In cosa è simile e differente da quella umana?

L’IA è basata sull’elaborazione di grandi masse di dati, effettuata automatizzando la logica aristotelica. La velocità di calcolo e la quantità dei dati manipolati nei computer odierni sono superiori di molti ordini di grandezza (milioni di miliardi di volte) a quelle della mente umana: cosicché questa tecnologia, che è l’ultima evoluzione della macchina, rappresenta un’estensione dell’intelligenza umana, necessaria per governare settori economici e civili complessi, come la salute, l’energia, i trasporti, ecc. Tuttavia, al di là del calcolo numerico, l’intelligenza umana dispone di una gamma ulteriore di facoltà, quali l’argomentazione, l’intuizione, la creatività, la consapevolezza, la volontà e i sentimenti. Sono queste peculiarità dell’intelligenza umana, tra l’altro, che progettano l’IA, fornendole l’architettura e i programmi senza cui questa non esisterebbe.

I computer hanno una creatività pari a quella umana? O se ne può parlare soltanto in termini analogici?

Un computer è, per costruzione, una macchina di Türing con una velocità ed una memoria determinate, vale a dire essenzialmente una ruota dentata che fa l’una dopo l’altra 3 operazioni elementari: andare avanti di un passo, o indietro di un passo, o fermarsi. Quale successione di tali istruzioni sia effettivamente eseguita dal computer prima di fermarsi è determinata dal programma – scritto da un uomo. Il computer è infine un oggetto deterministico, ripetitivo, quasi isolato dall’ambiente. La mente umana è un sistema errabondo, in continua relazione con l’ambiente, imprevedibile, e impregnato di emozioni.

È concepibile un agente privo di sentimenti che sia dotato di creatività?

La creatività è la facoltà della mente umana di produrre qualcosa da nulla. Tutti i casi studiati nelle neuroscienze fanno ritenere che l’atto creativo ci accada non quando siamo focalizzati sul problema, ma quando la nostra mente vaga liberamente nella parte bassa dello spettro cosciente. La creatività scatta allora d’improvviso inventandosi un’analogia, che permette di vedere il problema sotto una nuova luce. Ma qual è l’origine della casuale analogia? Quando Rilke in un’elegia paragonò il volo di un pipistrello nel cielo serotino ad una crepa in una tazza di porcellana, suggerì un secolo fa la risposta, ora corroborata dalle neuroscienze: l’analogia è suscitata allorché due fatti diversi ci inducono emozioni simili. L’emozione gioca in noi umani il ruolo di una funzione molto potente di codifica e sintesi per il pensiero: essa salva un’intera scena complessa in un sentimento che la memoria in difficoltà può usare come un indice per trovare, nella grande collezione di candidati, proprio la cosa che cerca. Per le emozioni, e quindi per la creatività, è necessario però un corpo vivo con i suoi cinque sensi, non basta un assemblaggio di viti, metalli e plastica.

Sentimenti e volontà hanno una costante relazione con i sistemi cognitivi umani. Cosa accade nei computer?

Quando prendiamo una bibita ad un distributore automatico utilizziamo IA, anche se forse non ce ne rendiamo conto. Cosa accade nei diversi computer implicati nel servizio? Vediamo. La macchinetta raccoglie i dati di consumo delle bevande e li trasmette in tempo reale ad una piattaforma IA di outsourcing. Questa li elabora e li traduce in informazioni sullo stato della macchina e la quantità dei consumi. Finalmente, i dati relativi a tutte le macchinette (della stessa azienda di distribuzione automatica) sono resi disponibili sotto forma di applicazioni web ai produttori delle bevande, ai distributori, ai manutentori, ed anche ad altri soggetti interessati ai dati: ogni operatore ha il proprio profilo di accesso e vede informazioni distinte sul proprio cellulare, tablet o computer. L’azienda può così ottimizzare la manutenzione delle sue macchinette, risparmiare tempo sui rifornimenti, evitare interruzioni dell’erogazione.

Cosa accade ai server, ai computer, ai tablet, agli smartphone, in termini di sentimenti e volontà?

Niente. Zero. Lo stesso vale per ogni altro sistema IA, sia che prenotiamo un viaggio aereo o che ci arrivi in automatico una multa a casa per eccesso di velocità o che usiamo i servizi di Smart Home di Google. Telecamere ai semafori, connessioni tra server di banche e di compagnie aeree, robottini domestici e termostati telecomandati, nessuna macchina prova alcuna emozione, né decide alcunché. Se qualche anno fa un aereo si schiantò per la follia del pilota su una montagna uccidendo tutti i passeggeri o qualche settimana fa un Boeing precipitò in Etiopia contro la volontà disperata dell’equipaggio, impegnato inutilmente per 6 minuti contro il pilota automatico, la responsabilità non si deve a distrazione o sadismo dei sistemi IA, ma ad errore umano nei protocolli, che avrebbero dovuto nel primo caso disattivare da terra il pilota umano per innescare quello automatico, e nel secondo caso disattivare da terra il pilota automatico per restituire il governo dell’apparecchio all’equipaggio ed anche, nel secondo caso, ad un baco nel software di bordo, che ora agenti umani – i programmatori della Boeing – sono chiamati a correggere.

In definitiva, quali sono i limiti del Machine Learning?

Al pari di altre funzionalità di frontiera come il Natural Language Processing, il limite del Machine Learning è all’origine, nell’automazione per ora confinata all’inferenza: non sempre in questa logica limitata masse di dati producono informazioni e masse di informazioni producono conoscenza. In ogni caso, come in ogni altro campo dell’IA, anche il Machine Learning svolge un ruolo al servizio della conoscenza dell’uomo, non della macchina. Le macchine aumentano, non sostituiscono, le capacità umane. Più esattamente esse accrescono l’efficienza dei sistemi congiunti uomo-macchina.

Come applicare l’ “intelligenza” del computer al nostro quotidiano?

Invece di pensare l’AI in termini di uomini contro macchine, dovremmo considerarla come un sistema che integra uomini e macchine. Per questo io trovo tecnicamente più corretto parlare di Intelligenza Estesa, piuttosto che di intelligenza artificiale. Lei da giornalista non trova ironico che Tim Cook, presentando all’ultimo super-evento di Cupertino il servizio News+ di Apple, abbia presentato come una strepitosa innovazione la loro decisione che d’ora in avanti la rassegna stampa di Apple sarà “human-curated”, grazie ad una redazione interna tutta di editor in carne ed ossa, piuttosto che decisa da un algoritmo che si è dimostrato incapace d’ “imparare”?

Può brevemente indicarmi il contesto e qualche risultato delle sue ricerche nel settore dell’AI?

Vengo dalla fisica teorica. Dopo un’attività di ricercatore e docente, ho lavorato in aziende industriali, della logistica e della finanza, pubbliche e private. Negli anni ‘80, ho curato per il governo italiano la privatizzazione dei settori delle telecomunicazioni, agro-alimentare, chimico e siderurgico, e il riassetto del settore bancario. Negli anni ’90 ho lavorato in due gruppi privati dell’ICT. Nel nuovo secolo, ho tenuto per qualche anno con un altro docente il corso “Principi e Teorie del Virtuale” all’Università San Raffaele di Milano: qui, attraverso un’analisi del teorema di Gödel, ho potuto differenziare le varie tipologie di intelligenza artificiale, fino a mostrare l’infondatezza della Tesi dell’IA forte. Oggi collaboro con il network di ricercatori di Humanitech, il cui scopo è di analizzare il rapporto tra l’uomo e la tecnica. Al riguardo abbiamo in corso la pubblicazione delle lezioni del corso al San Raffaele, col titolo “La Tecnica è finita”. Finita nel senso di limitata da soglie matematiche e fisiche ben determinate.

© RIPRODUZIONE RISERVATA