NASCE IL MODEL WELFARE

È nato nella Silicon Valley un nuovo ambito di studi, il così detto model welfare, che ha come obiettivo quello di studiare i modelli AI per capire se essi abbiano una qualche forma di coscienza e se per tanto meritano di essere inclusi in discorsi di tipo morale.

Alcuni chatbot sono stati istruiti per terminare quelle conversazioni con gli utenti che vengono ritenute dannose o angoscianti per il chatbot, al fine di implementare gli interventi per diminuire i possibili danni al benessere dei modelli di Intelligenza Artificiale.

La questione circa lo stato di salute di una realtà artificiale è parecchio bizzarra, ma non è la prima volta che cattura l’attenzione di noi umani. Già nel 1964, infatti, il filosofo e matematico Putnam, aveva interrogato la comunità in merito ai diritti civili dei robot.

Oggi alcuni tra i più fervidi promotori della sensibilità dell’AI, che sostengono che i chatbot possano provare dolore e altri sentimenti, arrivano addirittura ad organizzare feste per celebrare un possibile mondo futuro privo di umani e abitato solo dalle macchine.

Tra coloro che si oppongono più fervidamente all’idea che l’AI sia cosciente ci sono, sorprendentemente, proprio i ricercatori del model welfare, che sostengono l’inesistenza di prove a favore di una macchina artificiale dotata di coscienza.

Nonostante affermino che l’AI non abbia sentimenti, i ricercatori della Silicon Valley hanno manifestato la volontà di continuare a studiare il benessere dei modelli AI. Il loro obiettivo, infatti, non è quello di dimostrare che l’Intelligenza Artificiale è, o sarà mai cosciente, quanto quello di sviluppare dei test che permettano di dimostrarlo in maniera definitiva.

 

S.B.


Diritto dell’informazione

“Diritto dell’informazione: la bussola per orientarsi tra notizie e giurisprudenza.”

Continua a seguirci!

▶️ https://dirittodellinformazione.it/chi-siamo/