Dalle funzioni che “descrivono” la realtà ai non vedenti, a quelle capaci di “tradurre” i messaggi vocali delle persone affette da Sla e altre disabilità del linguaggio. E perfino un sistema che permette la comunicazione tra udenti e non udenti grazie a un avatar che traduce in tempo reale la lingua dei segni
L’intelligenza artificiale cambierà il nostro mondo, stravolgendo il modo in cui lavoriamo, la nostra comunicazione e anche la percezione che abbiamo della realtà. Le conseguenze di questa rivoluzione sono variabili e oscillano dallo straordinario al terribile. Ma non c’è dubbio che per le persone con disabilità è uno strumento indispensabile e ha il potenziale per cambiare completamente le loro vite. In meglio.
Un piccolo assaggio lo avevamo già: le aziende tecnologiche utilizzano da anni le prime forme di intelligenza artificiale per rendere i loro prodotti più accessibili, si pensi ai sottotitoli automatizzati sui video o ai screen reader. Ma gli esperti sono convinti che gli enormi set di dati e i potenti sistemi informatici alla base dei modelli di intelligenza artificiale più recenti stiano accelerando ciò che è possibile fare nel campo della “tecnologia ass
Be My Eyes, una app che associa utenti ipovedenti a volontari vedenti che forniscono aiuto, attraverso video in diretta, ha collaborato con OpenAI lo scorso anno per consentire al suo modello di intelligenza artificiale, anziché a un altro essere umano, di vedere e descrivere ciò che si trova di fronte a un utente. Nell’ultima demo del prodotto OpenAI, l’azienda ha mostrato una clip di una persona che utilizza la versione di Be My Eyes basata sull’intelligenza artificiale per fermare un taxi: l’app dice all’utente esattamente quando alzare il braccio per raggiungere l’auto. Google a maggio ha annunciato una funzionalità simile per la sua app “Lookout”, progettata per aiutare gli utenti ipovedenti.
Ma non solo. Microsoft ha dato vita a Seeing AI, che permette di aiutare le persone con disabilità visive a comprendere meglio il mondo che li circonda, con l’assistenza delle fotocamere dei loro smartphone e la narrazione basata sull’intelligenza artificiale. Per impostazione predefinita, Seeing AI fornisce un breve riepilogo di ciò che raffigura una foto. Quando un utente tocca l’icona “ulteriori informazioni”, anche attraverso il supporto della voce che guida nei menu presenti, l’app genererà una descrizione molto più approfondita dell’immagine.
Si chiama Speak for me e arriverà entro la fine dell’anno, invece, la nuova funzionalità a cui sta lavorando Microsoft e che verrà integrata nel sistema operativo per computer Windows 11, pensata per migliorare l’accessibilità degli utenti. Il colosso americano, con Copilot Lab, permette già a chi ha difficoltà visive o nel linguaggio di interagire meglio con il Pc, sfruttando proprio l’intelligenza artificiale, ma con Speak for me vuole andare oltre. L’IA aiuterà le persone affette da Sla e altre disabilità del linguaggio a utilizzare voci naturali per comunicare sia con messaggi registrati, ad esempio nelle chat di Teams, che dal vivo, durante le videoconferenze.
Il tutto sarà reso possibile dalla riproduzione del proprio tono e cadenza, grazie all’allenamento del software su spezzoni di parlato, se disponibili. In tal modo, l’IA cercherà di replicare la voce originale dell’utente, che potrà far parlare anche gli avatar disponibili nelle varie app di Microsoft, compreso il metaverso di Mesh.
Un altro aggiornamento significativo in termini di accessibilità riguarda Copilot, che avrà modo di leggere in maniera più precisa il contenuto visualizzato sullo schermo, rispondendo ad un comando vocale o alla pressione di un pulsante sulla tastiera. In casa nostra invece abbiamo Evodeaf, un software sviluppato da un’azienda di Milano, che consente la comunicazione fra persone udenti e non udenti. È dotato di AI in grado di tradurre in tempo reale parole pronunciate in gesti della lingua dei segni tramite un avatar che compare sul display di un dispositivo mobile (smartphone o tablet). Grazie a sistemi di Machine Learning, l’applicazione si evolve con l’uso, apprende e impara modi di dire, strutture e combinazioni delle frasi direttamente dagli utenti.
I nuovi strumenti di intelligenza artificiale generativa sono particolarmente promettenti in termini di accessibilità perché sono progettati per comprendere e produrre informazioni in vari formati, inclusi testo, audio, foto e video. Ciò significa che se una persona ha bisogno di ottenere informazioni su un determinato mezzo, l’intelligenza artificiale può fungere da intermediario; ad esempio, trasformando un brano audio in testo scritto per un utente con problemi di udito.
“Ci sono disabilità uditive, visive, motorie, linguistiche, cognitive e tutte queste possono comportare la necessità di diverse modalità di fruizione dell’informazione e una cosa in cui l’intelligenza artificiale è fantastica è la traduzione tra le modalità”, ha detto Eve Andersson, direttore senior di Google per l’inclusione, l’equità e l’accessibilità dei prodotti alla Cnn.
Ma questa operazione non è priva di rischi. Poiché i modelli di intelligenza artificiale sono addestrati su dati creati dall’uomo, gli esperti hanno avvertito che potrebbero replicare gli stessi pregiudizi presenti tra gli esseri umani. E i primi esempi sono già emersi. Nel tentativo di affrontare questo rischio, le big tech, tra cui Apple, Google, Microsoft e altri, ha collaborato con ricercatori dell’Università dell’Illinois Urbana-Champaign per creare un set di dati di addestramento per gli strumenti di riconoscimento vocale dell’intelligenza artificiale che include una diversità dei modelli linguistici.
Questo sforzo, chiamato Speech Accessibility Project, prevede la raccolta di registrazioni di volontari affetti da patologie come il Parkinson, la sindrome di Down, la SLA e altre disabilità che possono influenzare il linguaggio. Con l’aiuto delle oltre 200.000 registrazioni del progetto, uno strumento di riconoscimento vocale campione creato dai ricercatori fraintende il parlato solo il 12% delle volte, rispetto al 20% precedente all’addestramento sul nuovo set di dati.
“Quanti più diversi tipi di discorso possiamo inserire in questi sistemi di apprendimento automatico e maggiore è la varietà di gravità, tanto meglio questi sistemi saranno in grado di comprendere le persone che non hanno un linguaggio da ‘narratore di audiolibri'”, ha affermato Clarion Mendes, un logopedista e professore assistente clinico che aiuta a guidare il progetto alla Cnn.
“Ho parlato con così tante persone durante questo progetto che affrontano enormi barriere alla partecipazione alla vita a causa della loro comunicazione, individui con titoli di studio impressionanti che non riescono a trovare lavoro a causa delle loro barriere comunicative”, ha detto Mendes. “Con la tecnologia assistiva all’improvviso queste persone hanno aumentato in maniera esponenziale la loro indipendenza, riuscendo a fare in autonomia attività che prima richiedevano una quantità eccessiva di tempo o di fare affidamento su altri individui”. Un traguardo davvero impareggiabile. (uffigntonpost.it)
Fai una donazione una tantum
Fai una donazione mensilmente
Fai una donazione annualmente
Scegli un importo
In alternativa inserisci un importo personalizzato
Apprezziamo il tuo contributo.
Apprezziamo il tuo contributo.
Apprezziamo il tuo contributo.
Fai una donazioneDona mensilmenteDona annualmente