“DANNI” CAUSATI DAI ROBOT, COME RICONOSCERLI

La risoluzione del Parlamento europeo sulla robotica del 17 febbraio 2017 si riferisce alla sola responsabilità legale. In questo caso, quindi, si tratta della possibilità di costituire un nuovo e diverso tipo di persona giuridica (“persona elettronica”) e si intende quindi la responsabilità come risarcimento dei danni. Si tratta di un’applicazione del diritto civile ai robot e alle loro azioni.

La letteratura in materia si è interrogata su quanto e in quali modi l’applicazione del risarcimento dei danni a questi casi possa bloccare l’innovazione e spingere le compagnie a non avventurarsi in situazioni rischiose, sebbene tali impedimenti sembrino più teorici che pratici.

I filosofi morali, però, si interessano anche ad un’altra questione: si può sensatamente dire che sia colpa del robot? Fattori principali da prendere in considerazione solo l’agentività e la moralità: per essere colpevoli dobbiamo poter agire e avere la possibilità di agire bene o male.

A tal proposito entra in gioco il cosiddetto “responsability gap”, secondo il quale si creerebbe questo vuoto che consiste nell’impossibilità di attribuire responsabilità a chicchessia, quando veniamo all’analisi delle azioni delle intelligenze artificiali. Esistono situazioni in cui è effettivamente impossibile attribuire la responsabilità a qualcuno, sebbene un danno o una colpa in effetti ci siano.

Perché possa darsi responsabilità morale il soggetto che ha compiuto l’azione deve soddisfare una serie di criteri: l’intenzionalità, la consapevolezza delle conseguenze, il controllo della catena causale e il libero arbitrio.

Si può, dunque, confutare l’idea che un robot o un sistema automatico, per quanto sofisticati possano essere, soddisfino tutti questi criteri. E, di conseguenza, si può altrettanto facilmente negare che alle armi automatiche possa essere imputata una qualche forma di responsabilità morale. I criteri adottati, infatti, sembrano tipicamente umani e solo con difficoltà potremmo accettare di attribuirli a qualcos’altro.

È dunque necessario introdurre norme sui possibili usi legittimi di robot e intelligenze artificiali. Ciò sembra possibile solo con un’attenzione a possibili danni o svantaggi per gli esseri umani.

 

(V.M)