Nel mondo del lavoro moderno, lo stress mentale è un pericolo silenzioso, spesso trascurato. Ma cosa succese se l’Intelligenza Artificiale può aiutarci a riconoscerlo prima che diventi un problema serio? In ambienti ad alta pressione, come ospedali, logistica o grandi call center, alcune tecnologie analizzano dati biometrici, vocali o testuali per rilevare cambiamenti emotivi potenzialmente legati a stress, burnout o stati depressivi.
Sistemi come Aiberry, ad esempio, sfruttano l’analisi vocale e testuale (mail, chat, colloqui) per cogliere variazioni indicative di disagio emotivo. Altri, come Spring Health, utilizzano algoritmi predittivi per suggerire percorsi psicologici personalizzati, aiutando i lavoratori prima che cadano nel burnout.
In ambienti ad alta criticità, come nel trasporto o nella logistica pesante, si stanno sperimentando tecnologie di brain sensing: caschi intelligenti che monitorano i livelli di affaticamento per avvisare il lavoratore prima di un eventuale blackout cognitivo.
Tuttavia, l’uso di questi strumenti non è esente da critiche. L’AI Act, approvato a marzo 2024, vieta l’uso dei cosiddetti “sistemi di riconoscimento delle emozioni” in contesto lavorativo. Si tratta sistemi che tentano di dedurre stati mentali analizzando espressioni facciali, voce, battito cardiaco, modalità di scrittura e altri parametri biometrici, considerati troppo invasivi. Fa eccezione solo l’uso legato a motivi di sicurezza, ad esempio per prevenire dell’addormentamento al volante.
L’obiettivo è, quindi, prevenire il disagio senza trasformare il luogo di lavoro in un laboratorio di sorveglianza emotiva. Per questo, l’adozione di questi strumenti deve avvenire solo con trasparenza, consenso informato e supervisione umana. L’AI può essere un alleato della salute mentale, ma non deve sostituire il rispetto per la persona. In un contesto già esigente, ciò che serve non è controllo, ma ascolto.
A.C.