Il progetto si chiama “Speech Accessibility” ed è in collaborazione con l’Università dell’Illinois (UIUC). L’obiettivo è migliorare il riconoscimento vocale per le persone affette da malattie che colpiscono il linguaggio come la SLA, il Parkinson e la sindrome di Down, che attualmente non sono considerate dagli algoritmi di intelligenza artificiale.
Il progetto Speech Accessibility raccoglierà campioni di discorsi da individui che rappresentano una varietà di modelli linguistici. L’UIUC recluterà volontari pagati per contribuire, aiutando a creare un set di dati che rimarrà privato e non identificabile, il quale potrà essere sfruttato per addestrare modelli di apprendimento automatico. Inizialmente il gruppo si concentrerà sull’inglese americano.
“Le interfacce vocali dovrebbero essere disponibili per tutti, comprese le persone con disabilità – afferma il professore dell’Uiuc Mark Hasegawa-Johnson – è stato un compito difficile perché richiede molte infrastrutture, idealmente quelle che possono essere supportate dalle principali società tecnologiche, quindi abbiamo creato un team interdisciplinare unico con esperienza in linguistica, parlato, intelligenza artificiale, sicurezza e privacy”.
La Davis Phinney Foundation e il Team Gleason sosteranno il progetto. “Il Parkinson colpisce i sintomi motori, rendendo difficile la digitazione, quindi il riconoscimento vocale è uno strumento fondamentale per la comunicazione e l’espressione – ha affermato Polly Dawkins, direttore esecutivo della Davis Phinney Foundation – e parte dell’impegno è orientato a garantire l’accesso agli strumenti, alle tecnologie e alle risorse necessarie per vivere le loro vite nel miglior modo possibile”.