Menczer: «L’AI è uno strumento neutro, ci sono limiti e potenzialità»
Professore di informatica e computer science all’Indiana University dirige l’Osservatorio sui Social Media. Il 14 maggio alle 18 in sala Recchi, a palazzo Lambertenghi a Como, nell’ambito del ciclo Lake Como School of Advanced Studies parlerà di intelligenza artificiale generativa, uno strumento per la creazione di contenuti falsi, ma anche un alleato per la verifica di fatti e fonti
L’AI generativa corre sempre più veloce, ma non è sola in pista, accanto a lei ci sono i ricercatori che la seguono, a volte la superano, in un testa a testa che rende la sfida costantemente aperta. Filippo Menczer è professore di informatica e computer science all’Indiana University dove dirige l’Osservatorio sui Social Media. La sua ricerca si concentra sulla vulnerabilità delle reti sociali alla disinformazione e alla manipolazione. Il 14 maggio alle 18 in sala Recchi, a palazzo Lambertenghi a Como, nell’ambito del ciclo Lake Como School of Advanced Studies (iscrizioni su AIGoodVsEvil.eventbrite.it), analizzerà limiti e potenzialità della doppia natura dell’AI generativa, uno strumento per la creazione di contenuti falsi, ma anche un alleato per la verifica di fatti e fonti.
Partiamo dal curioso titolo del suo intervento: “AI good vs. evil”
Ogni tecnologia è neutra, quindi può essere usata sia dai malintenzionati, sia da chi vuole proteggere l’ecosistema dell’informazione. La nostra ricerca è su entrambi i lati, cerchiamo di capire come l’AI possa essere sfruttata per fare cose malvagie, e come noi ricercatori possiamo usarla per combattere gli abusi online. Da qui il titolo “AI good vs. evil” per ricordare una battaglia in cui tutti e due i campi usano l’AI come un’arma. All’inizio era possibile riconoscere più facilmente le foto realizzate con l’AI generativa, capitava che nelle immagini le persone avessero sei dita, oggi è arrivata a un’accuratezza impressionante, in questi giorni Giorgia Meloni ha denunciato la diffusione di un’immagine creata artificialmente che la ritraeva in lingerie La creazione di immagini non consensuali è un esempio tipico dell’abuso dell’AI, esistono piattaforme che possono essere sfruttate per generare foto difficili da distinguere da quelle reali e realizzabili a costi minimi. Queste immagini possono poi essere utilizzate per fini illeciti, ma anche per disinformare su eventi attuali, guerre, provocare tensioni o manipolare l’opinione pubblica. Uno dei punti su cui mi soffermerò nel corso del mio intervento, riguarda proprio l’uso dell’AI per creare contenuti che oggi risultano sempre più difficili da differenziare da quelli autentici.
Come ricercatori quali strumenti avete a disposizione?
Utilizziamo diverse branche dell’AI, tra cui il machine learning, per attività di detection. Lavoriamo per esempio sulla rilevazione di account falsi, un’arma particolarmente efficace perché sia gli utenti sia gli algoritmi delle piattaforme tendono a lasciarsi influenzare quando percepiscono un ampio consenso attorno a un’opinione o a un evento. Stiamo adottando il metodo adversarial: mettersi nei panni dell’avversario per sviluppare strumenti più efficaci nel contrastarlo. Simuliamo un avversario che utilizza i dati per impersonare individui, costruendo un gemello digitale capace di replicarne il comportamento in modo indistinguibile. Utilizziamo poi lo stesso modello, addestrato come se fossimo noi i “cattivi”, per allenare un secondo sistema in grado di riconoscere le differenze tra reale e artificiale.
Mentre le persone comuni cosa possono fare?
La prima cosa è evitare di usare i social media come principale fonte di informazione. Gli algoritmi tendono a mostrare quello che vogliamo sentirci dire. Il risultato è che le opinioni vengono continuamente rinforzate, senza però metterci nelle condizioni di fare una valutazione critica. Un giornalista, onesto, ha invece interesse a mostrare punti di vista diversi, a spiegare il problema nella sua complessità. Il consiglio è di rivolgersi attivamente verso le fonti di cui ci fidiamo, non limitandoci a ricevere passivamente notizie che gli algoritmi decidono di metterci davanti. Un’altra cosa fondamentale è avere una certa dose di scetticismo, ma anche lo scetticismo può essere un’arma a doppio taglio, perché il nostro cervello tende a renderci molto scettici verso le cose con cui non siamo d’accordo e molto meno verso quelle che confermano ciò che già pensiamo. Dobbiamo imparare a riconoscere i nostri pregiudizi e quindi anche le nostre vulnerabilità. Siamo tutti vulnerabili, non esistono persone completamente immuni alla manipolazione o alla disinformazione.
L’AI sta creando accesi dibattiti e posizioni estreme, dai tecno-ottimisti agli apocalittici, dal suo osservatorio cosa può dirci?
Diventerà sempre più avanzata, ma allo stesso tempo svilupperemo anche nuovi strumenti e nuove capacità per essere meno vulnerabili. E’ quello che è sempre successo con ogni grande innovazione, ai tempi della stampa c’era chi temeva che libri e testi stampati avrebbero indebolito le persone. L’AI è uno strumento neutro, può essere utilizzata per fare cose molto positive oppure per fare danni, e continuerà a essere usata in entrambe le direzioni.
© RIPRODUZIONE RISERVATA