Presentato il primo “virtual human” in grado di comprendere e produrre la Lingua dei Segni Italiana grazie all’intelligenza artificiale.

Milano è una città piena di energia e progetti che prende tanto, ma dà molto di più, moltiplicando ogni cosa”: con queste semplici, ma toccanti parole Fabrizio Caramagna definisce la metropoli meneghina, la quale accoglie ufficialmente un’altra innovazione avveniristica. Si tratta del primo virtual human in Italiacapace di produrre e comprendere la LIS, ovvero la Lingua dei Segni Italiana. Dietro al lancio di questa innovazione c’è QuestIT, company toscana nata come spin-off dell’Università di Siena e specializzata nella realizzazione di tecnologie proprietarie d’intelligenza artificiale, che per l’occasione ha stretto una partnership strategica con il Santa ChiaraFab Lab proprio dell’Ateneo senese, l’Istitutodi Scienze e Tecnologie della Cognizione del Consiglio Nazionale delle Ricerche e il Gruppo per lo studio e l’informazione della Lingua dei Segni Italiana.

La presentazione dell’avatar avveniristico è avvenuta presso l’Hotel Lombardia nella giornata di ieri, martedì 17 gennaio, durante un evento ad hoc. “Per innovare il presente serve tanta ricerca e, soprattutto, la tecnologia giusta – afferma Ernesto Di Iorio, CEO di QuestIT – Per questo motivo abbiamo sfruttato le incredibili potenzialità dell’intelligenza artificiale per strutturare unassistente virtuale di ultima generazioneche conosce alla perfezione la Lingua dei Segni Italiana. Grazie ad esso, potenziamo la «digitalaccessibility» e diamo l’opportunità ai cittadini sordi di accedere autonomamente ad informazioni e servizi offerti da enti e realtà del territorio come la Pubblica Amministrazione e le banche, ma ipotenziali campi di applicazione sono innumerevoli: dall’organizzazione degli appuntamenti negli ospedali alla spiegazione di mostre o eventi culturali nei musei fino al chiarimento di materie o singoli concetti nelle scuole o nelle aule universitarie”.

Attualmentela tecnologia, in qualità di virtual assistant, può essere inserita all’interno di siti web, applicazioni, sistemi proprietari e persino totem interattivi. Una volta che la persona in questione si presenta dinanzi allo schermo e inizia ad interagire a suon di segni, l’avataranalizza le espressioni facciali del singolo, oltre ai suoi movimenti, e risponde utilizzando la LIS. In questo modo è in grado di offrire consulenze mirate ed efficaci, a seconda del contesto di riferimento, ai clienti sordi. Ma non finisce qui, infatti, sono previste a stretto giro una serie di lavorazioni utili a perfezionare lo stesso umanoide.

“Stiamo già lavorando su quello che può essere l’evoluzione del prodotto– aggiunge Di Iorio – L’obiettivo è quello di offrire una tecnologia capace di tradurre simultaneamente le parole in segni. Già oggi, dopo una prima fase di training, è in grado di gestire le richieste della clientela in totale autonomia ed offrire così l’assistenza di cui le persone necessitano. Per l’organizzazione di questo progetto così ambizioso non potevamo che coinvolgereil Dipartimento di Scienze Sociali, Politiche e Cognitive dell’Università di Sienaoltre ad un ente di primaria importanza come il Consiglio Nazionale delle Ricerche e al Gruppo per lo studio e l’informazione della Lingua dei Segni Italiana”.

Una volta ultimate le presentazioni, QuestIT, in compagnia di IgoodI, avatar factory italiana, ha premiato anche il vincitore dell’Avacontest, anzi la vincitrice, ovvero Sarah Balestrieri. La giovane, insieme ad altri cittadini provenienti da tutta Italia, ha preso parte all’iniziativa che ha visto i singoli partecipanti tramutarsi in avatar e, oltre a vincere 2.500 euro, diventerà anche testimonial di imprese ed enti pubblici del territorio sotto forma di assistente virtuale