Intelligenza artificiale: approvata da metà giugno la legge europea per la tutela dei cittadini

Tecnologia Sempre più usate in diversi ambiti della vita quotidiane, le AI secondo alcuni esperti potrebbero costituire un rischio per gli esseri umani. Ecco come si pensa di evitarlo

Se ne discute da un paio di anni e le discussioni tra una quindicina di giorni arriveranno a ottenere qualcosa di concreto: a metà giugno infatti verrà approvata l’ “Artificial Intelligence Act”, ovvero la legge europea che si preoccuperà di fornire un quadro normativo comune per l’utilizzo dell’intelligenza artificiale all’interno dell’Unione Europea.

Una lettera firmata dagli esperti

Leggi di questo tipo non sono molto diffuse nel mondo, quindi l’operazione portata avanti dall’Unione Europea da due anni a questa parte è osservata con attenzione da molti altri Paesi. Il tema suscita un interesse globale, come è emerso quando ieri dal “Center for AI Safety” è stato lanciato un allarme relativo ai problemi di sicurezza che potrebbero derivare alla comunità internazionale a seguito dell’introduzione sempre più massiccia dell’intelligenza artificiale nella nostra vita di tutti i giorni. Sono 350 le firme raccolte tra imprenditori, ricercatori ed esperti del settore tech per la richiesta di un maggiore e più sicuro monitoraggio delle attività legate all’intelligenza artificiale. L’obiettivo può essere riassunto così: «Mitigare il rischio di estinzione a causa dell’AI (ndr. intelligenza artificiale) dovrebbe essere una priorità globale insieme ad altri rischi sociali quali pandemie e guerra nucleare».

Molti i nomi noti che figurano tra i firmatari: Demis Hassabis, capo di DeepMind, l’AI di Google, Dario Amodei, ceo di Anthropic, start up partner di Amazon, gli scienziati che hanno contribuito allo sviluppo dell’intelligenza artificiale Yoshua Bengio e Geoffrey Hinton, e infine Sam Altman, a capo di OpenAI.

ChatGPT e il Garante per la privacy

Sul tema della sicurezza dell’intelligenza artificiale, al centro dell’attenzione in questi mesi c’è stato proprio ChatGPT, il noto software lanciato a novembre 2022 da OpenAI, che intrattiene conversazioni con gli esseri umani rilasciando risposte plausibili, anche se non sempre corrette dal punto di vista dei contenuti, a frasi scritte o pronunciate dagli utenti. I rischi relativi a questo tipo di software in Italia sono emersi con una certa preoccupazione quando il Garante della privacy ha aperto un’istruttoria a seguito di una presunta raccolta illecita di dati personali degli utenti da parte del software. Il chatbot è stato temporaneamente chiuso all’utenza italiana e poi riaperto quando ha applicato le modifiche richieste dal Garante. Tra queste «un’informativa trasparente, in cui siano illustrate modalità e logica alla base del trattamento dei dati necessari al funzionamento di ChatGPT nonché i diritti attribuiti agli utenti e agli interessati non utenti».

Quali sono i rischi?

Il timore da cui nasce però la lettera aperta del Center for AI Safety è di ben più ampia portata: si paventa il rischio che i modelli di intelligenza artificiale proposti, all’interno di un mercato sempre più in espansione, possano diventare incontrollabili. Non solo quindi rischi informatici o di appropriazione dei dati degli utenti, come temeva il Garante italiano per la privacy, ma anche quelli legati alla sopravvivenza stessa della specie umana. Questo al momento è uno scenario alquanto improbabile dal momento che ad oggi non esiste intelligenza artificiale capace di fare tutto e soprattutto di avere una chiara coscienza di sé, ma è certo che sempre più questo tipo di software si stanno facendo strada nelle nostre esistenze.

La soluzione ideale pensata allora in Unione Europea è quella di fornire regole chiare e precise che valutino i fattori di rischio: tra questi bisogna tenere in conto anche quelli che riguardano l’occupazione e i diritti dei singoli cittadini, ma anche la possibilità di distinguere le informazioni scritte e mediali prodotte dalle intelligenze artificiali rispetto a quelle prodotte dagli esseri umani, o ancora impedire che le AI vengano utilizzate per rilevare le emozioni delle persone in determinati contesti.

© RIPRODUZIONE RISERVATA