“Il linguaggio, prima di significare qualcosa, significa per qualcuno”. Le parole dello psicanalista e filosofo francese Jacques Lacan mettono in risalto l’importanza di un concetto che, generalmente, è un semplice un insieme di parole. In questo caso specifico, però, non sono le parole a fare la differenza, bensì i segni. Grazie a QuestIT, infatti, l’attenzione è totalmente focalizzata sulla LIS, ovvero la Lingua dei Segni Italiana.
Quest’ultima, dopo essere stata riconosciuta ufficialmente dallo Stato il 19 maggio 2021, può aggiornare la propria storia con una nuova data. Si tratta del 17 gennaio 2023, giorno in cui la LIS abbraccia ufficialmente la contemporanea rivoluzione tecnologica. Il 17 gennaio è, infatti, la data de lancio del primo virtual human in Italia capace di produrre e comprendere i segni della LIS. Un passo che significa più inclusione per circa 100mila persone su scala nazionale.
Com’è possibile?
Grazie all’intelligenza artificiale, che rende l’innovazione estremamente empatica. Dietro alla realizzazione di questo assistente virtuale avveniristico c’è QuestIT, company nata come spin-off dell’Università di Siena. Per l’occasione QuestIT ha stretto una partnership strategica con il Santa Chiara Fab Lab dell’Ateneo toscano e con il Consiglio Nazionale delle Ricerche.
“Per innovare il presente serve tanta ricerca e, soprattutto, la tecnologia giusta". Lo afferma Ernesto Di Iorio, CEO di QuestIT. "Per questo motivo abbiamo sfruttato le potenzialità dell’intelligenza artificiale per strutturare un avatar di ultima generazione che conoscesse perfettamente la Lingua dei Segni Italiana. Grazie ad esso, potenziamo la «digital accessibility» e diamo l’opportunità ai cittadini sordi di accedere autonomamente ad informazioni e servizi offerti da enti e realtà del territorio, come la Pubblica Amministrazione e le banche, ma i potenziali campi d’applicazione sono innumerevoli: dall’organizzazione degli appuntamenti negli ospedali alla spiegazione di mostre o eventi culturali nei musei fino al chiarimento di materie o singoli concetti nelle scuole o nelle aule universitarie”.
Le attuali possibilità
Attualmente il virtual assistant può essere inserito all’interno di siti web, applicazioni, sistemi proprietari e persino totem interattivi. Quando la persona si presenta davanti allo schermo e inizia ad interagire, l’assistente analizza le espressioni e i movimenti, e risponde utilizzando la LIS. In questo modo è in grado di offrire consulenze mirate ed efficaci, a seconda del contesto di riferimento, ai clienti sordi. Ma non finisce qui, infatti, sono previste a stretto giro una serie di lavorazioni utili a perfezionare lo stesso umanoide.
“Stiamo già lavorando su quello che può essere l’evoluzione della tecnologia – aggiunge Di Iorio – L’obiettivo è quello di offrire un avatar capace di tradurre simultaneamente le parole in segni. Già oggi, dopo una prima fase di training, è in grado di gestire le richieste della clientela in totale autonomia e offrire così l’assistenza di cui le persone necessitano. Per l’organizzazione di questo progetto così ambizioso non potevamo che coinvolgere il Dipartimento di Scienze Sociali, Politiche e Cognitive dell’Università di Siena oltre all’Istituto di Scienze e Tecnologie della Cognizione del Consiglio Nazionale delle Ricerche e al Gruppo per lo studio e l’informazione della Lingua dei Segni Italiana”.
Una volta ultimate le presentazioni, QuestIT, in compagnia di IgoodI, avatar factory italiana, ha premiato anche il vincitore dell’Avacontest, anzi la vincitrice, ovvero Sarah Balestrieri. La giovane, insieme ad altri cittadini provenienti da tutta Italia, ha preso parte all’iniziativa che ha visto i singoli partecipanti tramutarsi in avatar e, oltre a vincere 2.500 euro, diventerà anche testimonial di imprese ed enti pubblici del territorio sotto forma di assistente virtuale.