Un   addestramento  basato su   contenuti affidabili  e una   pluralità di sistemi  di   intelligenza artificiale  : sono questi, per il Nobel Giorgio Parisi, due   requisiti fondamentali  per   evitare un futuro dominato da veri e propri monopoli del sapere  . "L'ideale sarebbe   non avere un singolo modello  , ma   tanti modelli  che si   confrontano  l'uno con l'altro", ha detto Parisi nella sua conferenza su fisica e intelligenza artificiale organizzata dall'Accademia dei Lincei. Una garanzia, ha aggiunto, potrebbe essere un   centro di ricerca pubblico europeo  , sul modello del Cern che assicurasse la pluralità dei sistemi di IA e del loro addestramento. 
 
 Già oggi, ha osservato il fisico, "   non siamo in grado di controllare quando un sistema di IA si sbaglia  ": si tratterebbe di "   verificare  i   singoli passaggi  nella catena di ragionamento". Non è nemmeno possibile   controllare  quali siano le   fonti  che utilizza. La situazione è molto diversa rispetto a quanto avviene nelle attuali ricerche online. "Se facciamo una ricerca su Google ci troviamo davanti a una quantità di siti diversi, fra i quali possiamo fare delle scelte", per esempio nel caso di una ricerca sui vaccini potremmo riconoscere i siti scientifici da quelli complottisti, "ma quando utilizziamo un sistema di intelligenza artificiale non abbiamo più un controllo sulle fonti. Se poi venisse utilizzato un solo modello si rischierebbe un monopolio", ha detto ancora. 
 
 Ripercorrendo la   storia dell'IA  , fra   ricerche sul cervello  ,   fisica  e   matematica  , Parisi ha rilevato che, rispetto ai primi modelli degli anni '80 e '90, le   attuali ricerche  sulle reti neurali profonde hanno il   grande problema  di non essere sostenute da una teoria robusta: "   la teoria è scarsa  ". I   grandi modelli linguistici (Llm)  , ha proseguito, "hanno interessato il grande pubblico perché rispondono a delle domande". Ma bisogna considerare che sono stati   addestrati  con una   grande quantità di testi  , sono in pratica "un   enorme riassunto  di quanto c'è sulla rete". Ma   non sappiamo  con   quali testi  siano stati addestrati. 
 
 Inoltre i Llm "   non hanno nessuna rappresentazione spaziale del mondo  " e questo, ha osservato, "è il motivo per cui non sono in grado di guidare un auto autonoma". Il loro è in sostanza un mondo fatto di parole. 
 
 Per tutti questi motivi, ha osservato il Nobel, quello che   serve  "è   una teoria diversa dell'IA  ", in grado di considerare che   il cervello umano non funziona così  :   non impara i libri a memoria  ". 
 
 Il   futuro  è perciò "   estremamente difficile da prevedere  ", ma è certo che sull'intelligenza artificiale "   l'Europa non deve essere schiacciata fra Stati Uniti e Cina  : è essenziale - ha aggiunto - che in Europa nasca un   centro di ricerca pubblico  che si occupi dell'   addestramento dei sistemi di IA  come ChatGpt o DeepSeeK". Il modello, secondo Parisi, dovrebbe essere il Cern, ossia un centro che abbia "contributi da parte degli Stati Ue e non Ue: potrebbe essere   fondamentale  per   garantire  la   pluralità dei modelli  ".
© RIPRODUZIONE RISERVATA