(Foto di archivio)
Un progetto Iulm apre nuove frontiere per marketing e formazione, tra etica e intelligenza artificiale “empatica”. Si tratta di un avatar capace di replicare pensiero e voce del filosofo Francesco D’Isa: ragiona e comunica come noi
È stato presentato lo scorso 26 febbraio in Università Iulm l’avatar del progetto interuniversitario Alter Ego basato sulla tecnologia Large Language Models. Guido Di Fraia, responsabile del progetto per la parte realizzata dalla Iulm e referente del corso di laurea magistrale in “Intelligenza artificiale, impresa e società” ci spiega i contenuti di una tecnologia destinata a cambiare in profondità i parametri di formazione e, fra l’altro, ad incidere sulla gestione di processi aziendali. Alter Ego è un progetto Prin (progetto di ricerca di rilevante interesse nazionale) finanziato dal Pnrr a sostegno della ricerca pubblica su progetti di alto livello scientifico.
Abbiamo individuato nel filosofo Francesco D’Isa il punto di partenza del progetto, raccogliendo tutto il suo pensiero scritto (romanzi, saggi, articoli) più interviste a lui realizzate da noi per il progetto. Tutto è stato usato per addestrare il modello di avatar che è diventato così, su certi ambiti, un “doppio” del filosofo, con voce e sembianze aderenti a quelle reali. All’evento di presentazione del progetto il vero filosofo in sala ha dialogato in diretta con il suo doppio, che abbiamo fatto interagire con persone che conoscono molto bene Francesco D’Isa (la sua compagna e i suoi amici intimi) per capire quanto lo riconoscessero nel modello linguistico tecnologico.
Tutti hanno detto che il riconoscimento era totale e che le risposte del filosofo vero sarebbero state le stesse nella dimensione di incontro pubblico. E’ stata catturata attraverso l’avatar l’identità pubblica del filosofo, non quella privata in quanto non è stato addestrato a rispondere secondo le modalità reali in contesto privato. Un esempio realistico di ciò che davvero potrebbe avvenire sta nel fatto che con un addestramento così preciso un relatore potrebbe essere presente a una conferenza pubblica con il proprio avatar e non personalmente. Come dipartimento universitario continueremo la ricerca per addestrare il modello in ambiti non pubblici, allo scopo di rendere l’alter ego ’situazionale’, vale a dire in grado di riconoscere il contesto declinando la propria identità in relazione alla situazione: quindi, per chiarire, facendo sì che possa parlare in modo istituzionale se in una pubblica conferenza e in modo colloquiale fra amici al bar.
Le aree applicative sono due: una è quella da cui è partita la progettualità di “Alterego”, legata al fatto che questo tipo di simulazione può servire a generare creator e influencer digitali benevoli, quindi non di tipo commerciale, non orientati alla promozione di prodotti e servizi: nell’ applicazione di carattere più scientifico c’è un’area di ricerca realizzata durante lo svolgimento del progetto in cui si è cercato di capire quanto questo tipo di avatar che simulano identità umane reali siano in grado di orientare positivamente i comportamenti soprattutto in fasce giovanili. Nell’applicazione più di mercato il progetto consente di generare creator e influencer in grado di rispettare le caratteristiche del brand promuovendo prodotti e servizi. Umanizzare l’avatar con simulazioni umane che consentano maggiore empatia e relazionalità è una funzione che stiamo studiando anche per declinare l’utilizzo in termini aziendali di customer care.
Il tema della formazione è fondamentale, una formazione particolare che cerchiamo di proporre anche nel nostro corso di studi. Tuttavia oggi la formazione deve essere ibrida, deve unire competenze umanistiche e tecnologiche. Ciò è fondamentale. Un certo tipo di soluzioni come quelle emerse dal nostro progetto non nascono solo da conoscenze tecnologiche bensì da conoscenze di dominio.
Le tecnologie avanzate stanno diventando talmente accessibili, trasparenti e diffuse da essere ormai uscite dalla dimensione Stem, non è necessario essere ingegneri per potere generare, ad esempio, un chatbot o un agente virtuale. Oggi siamo nell’ambito dell’IA “agentica”, cioè un’IA che fa ’cose vere nel mondo’: e oggi non è più necessario essere informatici o matematici per farle, con dei tutorial mediamente chiunque riesce a farlo. Bisogna ridisegnare la formazione, perché ciò che conta in questo momento non è solo la competenza tecnologica: bisogna averne ovviamente quanto basta, ma unita alla competenza di dominio. Significa che se si è competenti in aree come il marketing, oppure la medicina, o di comunicazione, o di farmacologia si possono usare le macchine in modo proficuo: le macchine sono facili da usare, a fare la differenza è il proprio sapere. Quindi bisogna fare formazione per integrare sempre più le competenze fra corsi umanistici e scientifici con corsi tecnologici.
I confini sono certamente quelli dell’etica e del rispetto delle normative, che peraltro abbiamo la fortuna di avere molto stringenti in Italia e in Europa in un ambito in cui la tecnologia si muove talmente rapidamente che lo stesso legislatore rimane indietro. Su fin dove ci si può spingere, il regolatore di fondo europeo e nazionale ci dice che un avatar deve essere dichiarato e riconoscibile. Oggi la tecnologia ci consente di fare dei call center e risponditori assolutamente indistinguibili dagli esseri umani, mentre le persone hanno diritto di averne chiarezza e, se vogliono, scegliere di interagire con un essere umano. Rimanendo nei confini tracciati oggi dal legislatore si agisce nell’interesse delle persone facilitando, ad esempio, un dialogo fra azienda e persone. Un assistente virtuale con capacità empatica simile a quella umana, disponibile 24 ore al giorno, che non si arrabbia e riesce a gestire le situazioni in modo corretto genera vantaggio alle organizzazioni e alle persone.
Da un lato il progetto ha consentito di trasferire non solo le conoscenze ma anche alcuni aspetti di soggettività all’interno di una macchina attraverso un modello linguistico. Quando lo abbiamo presentato il progetto era assolutamente innovativo, anzi pionieristico e per alcuni anche velleitario. Abbiamo ottenuto risultati nel tempo (visto che i bandi funzionano spesso su tempi lunghi), oggi ci sono esempi simili ma non con il nostro tipo di approfondimento realizzato soprattutto sulla dimensione dell’efficacia di conversazione: abbiamo cercato di capire quanto questo tipo di identità artificiale possa interagire con gli esseri umani e che tipo di contributo possa dare in senso educativo e pedagogico. Questa è certamente una parte innovativa. Risultati che hanno sorpreso anche il vero filosofo coinvolto nel progetto, stupito quanto noi dal tenore delle risposte ottenute dal filosofo simulato, risposte di grande interesse nel farci riflettere, con forte rispecchiamento dell’umano nel tecnologico. Sembra teoria, ma il tema delle macchine che appaiono senzienti come esperienza umana è di grande concretezza. E tutto ciò è oggi piuttosto pionieristico.
© RIPRODUZIONE RISERVATA