I diritti dei Robot: dalla fantascienza alla realtà

Il 25 gennaio 1921, nel Teatro Nazionale di Praga, va in scena il dramma utopico R.U.R. Rossum’s Universal Robots, scritto dall’autore ceco Karel Čapek (1890-1938). In quest’opera appare per la prima volta la parola robot, riferita a dei replicanti, cioè degli esseri umanoidi organici prodotti dall’ingegneria genetica per sollevare l’uomo dalla fatica del lavoro. Il termine robot identifica proprio la loro funzione, in quanto deriva dalla parola ceca robota: lavoro forzato. L’opera, influenzata dalla rivoluzione russa, racconta la ribellione e la rivolta dei robot per liberarsi dalla schiavitù; infatti gli esseri umani, sollevati dai loro compiti lavorativi, hanno ceduto alla dissolutezza e allo sfruttamento dei replicanti.

In seguito, nel 1942, lo scrittore russo Isaac Asimov elabora le “Tre Leggi della Robotica”, le quali, con una logica ferrea, avrebbero controllato l’agire di tutte le entità robotiche:

  1. Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno;
  2. Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano con la Prima Legge;
  3. Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Prima e la Seconda Legge.

Tuttavia, in alcuni dei suoi ultimi racconti, Asimov postula l’esistenza di una legge più generale chiamata “Legge Zero”, in cui afferma che: un robot non può danneggiare l’umanità, né può permettere che, a causa del suo mancato intervento, il genere umano possa ricevere danno. Con l’introduzione di questa nuova legge, le tre precedenti vengono coerentemente modificate: a tutte le leggi viene aggiunta la postilla “a meno che questo non contrasti con la Legge Zero”. Da non sottovalutare il fatto che questa legge (la più importante) sia coniata proprio dai robot: viene formulata da un automa umanoide chiamato R. Daneel Olivaw, nel romanzo “I Robot e l’Impero” (1985).

Negli anni successivi, la fantascienza cede il passo alla realtà: l’evoluzione dell’ingegneria meccanica e dell’elettronica inizia a dare concretezza alle visioni degli scrittori più sognatori; questo porta alla nascita di nuove implicazioni etiche e giuridiche.

Già nel 1965, il filosofo Hilary Putnam, nel corso di una lezione al Massachusetts Institute of Technology (MIT) di Boston, introduce l’ipotesi di riconoscere i diritti civili ai robot. Nel 1985, il giurista Robert Freitas conferma tale esigenza nella sua opera “The legal rights of robots”, osservando lo sviluppo completo della capacità dei robot di elaborare pensieri propri e di avere ricordi esclusivi. Da questo momento in poi, la robotica e l’intelligenza artificiale sono cresciute ben oltre le previsioni, ma il riconoscimento di una personalità giuridica dei robot si è dimostrato un problema troppo complesso per aver soluzione. Solitamente gli studi scientifici sono concentrati sulle responsabilità dei robot e sui loro doveri, non sui loro diritti; nonostante ormai i robot non si limitino a eseguire funzioni operative, ma agiscano autonomamente adottando comportamenti complessi che possono includere tenerezza, generosità e altruismo.

Per questo, nel 2014, all’interno del progetto “RoboLaw” (www.robolaw.eu), coordinato da Erica Palmerini, recente vincitrice dell’“Oscar per la tecnologia”, e finanziato dalla Comunità Europea, è stata redatta una vera e propria “Carta dei Diritti e dei Doveri dei robot” composta da 19 articoli.

Carta dei Diritti e dei Doveri dei robot

  1. I robot servono per svolgere un servizio o un lavoro. Non può esistere robot se non c’è un lavoro o servizio da svolgere.
  2. I servizi compiuti dai robot devono essere rilevanti per la società e/o l’ambiente (salute, inquinamento, disuguaglianze, catastrofi naturali, etc.).
  3. Il robot deve essere sempre un mezzo e mai un fine.
  4. I robot devono rispettare le regole degli esseri umani.
  5. I robot non possono essere programmati per uccidere gli esseri viventi.
  6. Il profitto non deve essere mai posto prima della rilevanza sociale e/o ambientale.
  7. I servizi o lavori svolti dai robot non dovranno diminuire l’occupazione delle persone ma migliorarla.
  8. Un robot deve essere sempre riconosciuto come tale. Non deve mai ingannare le persone, né per le sembianze fisiche, né per le capacità cognitive, né per i sentimenti che può comunicare.
  9. Se un robot causa un danno per via di un errore, la colpa deve essere sempre riconducibile a una persona: progettista, costruttore, programmatore, assemblatore, manutentore, venditore, proprietario, utilizzatore (il problema sarà riuscire a capire chi).
  10. I robot dovranno essere dotati di una scatola nera da cui sarà possibile risalire alle cause di un mal funzionamento.
  11. Se non è possibile risalire a un colpevole, la decisione di utilizzare il robot deve essere condivisa e accettata da tutti.
  12. L’impossibilità di risalire a uno o più colpevoli, non può essere motivo per evitare responsabilità civile o penale.
  13. Gli esseri umani non potranno mai tramutarsi in robot, né totalmente né in parte. L’utilizzo di protesi robotiche dovrà essere consentito solo per scopi terapeutici.
  14. I robot non dovranno essere progettati nell’aspetto e nelle funzioni per riproporre stereotipi sociali (razziali o di genere).
  15. Le possibilità percettive e di accrescimento derivanti dall’utilizzo di sistemi robotici indossabili o collegabili al sistema nervoso dovranno rispettare la dignità degli individui e comunque mai creare discriminazione o disparità tra gli esseri viventi.
  16. Gli esseri umani non dovranno mai essere impiegati al servizio dei robot.
  17. Per quanto intelligenti i robot non potranno mai dare ordini agli esseri umani, ma solo consigli.
  18. I robot non potranno mai essere utilizzati per sostituire gli esseri viventi nei legami affettivi. Sono esclusi specifici casi patologici in cui è dimostrato che l’interazione con robot produce effetti benefici, come nel caso della demenza senile o dell’autismo.
  19. La robotizzazione di un compito comporta sempre una percentuale di imprevedibilità che determina un certo rischio. Il rischio deve essere sempre espressamente dichiarato e l’utilizzo del robot accettato solo dopo un’attenta valutazione dei costi, benefici e pericoli per gli esseri umani e l’ambiente.

In seguito, nel 2016, la legge proposta dall’europarlamentare Mady Delvaux avrebbe dovuto dotare gli automi di piena responsabilità in caso di danni a cose e/o persone, superando i tre principi fondamentali di Asimov. La proposta puntava alla creazione di una carta d’identità elettronica e alla nascita di un’agenzia europea, che vigilasse sull’operato delle macchine. Probabilmente questa richiesta ha anticipato troppo i tempi, ed è stata accolta con non poca ironia in Rete e nel Parlamento europeo.

Ma a causa del progressivo sviluppo di “auto senza pilota” e I.A. (intelligenze artificiali), nel febbraio del 2018, l’Unione Europea ha emanato una serie di norme volte a disciplinare tutte le varie tipologie di automazione. Per la prima volta si è voluto produrre una cornice legislativa che regoli la robotica, i suoi utilizzi e le sue finalità. La preoccupazione principale risulta essere la questione della sicurezza, ma sono presenti ampie riflessioni etiche, poiché ai legislatori europei non sfugge il fatto che, tra pochi decenni, i robot potranno “imparare da soli, comunicare fra loro e scambiarsi informazioni senza che gli esseri umani se ne accorgano”.

Il codice etico europeo, basato sulle leggi di Asimov, dovrebbe essere rivolto ai progettisti, ai fabbricanti e agli utilizzatori di robot, nonché agli automi aventi capacità di autonomia e di autoapprendimento integrate (veicoli autonomi, droni, robot medici e robot insegnanti), dal momento che tali leggi non possono essere convertite in codice macchina.

Ad esempio, queste leggi potrebbero essere spiegate direttamente a iCub, il primo robot in grado di apprendere autonomamente adattandosi al contesto e imparando dagli errori: questo automa è stato ideato da Giorgio Metta, ricercatore al MIT di Boston e costruito all’IIT di Genova. A differenza dei robot convenzionali, iCub acquisisce competenze semplicemente utilizzando il suo corpo esplorando il mondo e raccogliendo dati sugli oggetti e sulle persone che lo circondano, quindi sarebbe sufficiente leggergli e spiegargli queste normative e attendere l’elaborazione. A queste tipologie di robot il parlamento europeo vorrebbe concedere la denominazione di “persone elettroniche”.

Inoltre, il testo della normativa europea specifica i quattro principi che ingegneri e gli ideatori dovranno rispettare durante le fasi di progettazione degli automi:

  • Beneficenza: i robot devono agire nell’interesse degli esseri umani;
  • Non-malvagità: “primum, non nocere”, i robot non devono mai fare del male a un essere umano;
  • Autonomia: i robot non devono condizionare l’agire umano;
  • Giustizia: tutti gli esseri umani devono poter godere dei benefici associati alla robotica (soprattutto nei casi di assistenza a domicilio e cure mediche).

È lecito chiedersi fino a che punto arriveranno i robot. E non tanto dal punto di vista tecnologico, ossia delle capacità che riusciranno a sviluppare, quanto da quello etico.

Infatti, un altro punto di fondamentale importanza è che, secondo i principi della “Carta dei Diritti e dei Doveri dei robot”, un robot non dovrebbe eseguire azioni illegali: questo tipo di scenario tuttavia si rivela assai complesso e strettamente dipendente dal contesto.

Appare evidente che i robot dovrebbero essere forniti di una conoscenza base delle leggi e dei principi sociali, in modo da filtrare gli ordini che potrebbero prevedere un comportamento pericoloso e illegale. Di conseguenza, si dovrebbe richiedere a un robot una conoscenza assai più ampia di quella comunemente posseduta da un essere umano.

L’applicazione dei principi dell’etica alle macchine conduce ad una riflessione sui vincoli e sui principi che l’umanità stessa dovrebbe conoscere durante lo svolgimento delle proprie azioni, in modo da generare comandi per le macchine di più elevata qualità. E proprio questa capacità le avvicinerebbe ad un “soggetto senziente”; ci si dovrebbe interrogare se a queste tipologie future di automi debbano o meno essere concessi diritti simili a quelli sanciti dalla “Dichiarazione Universale dei Diritti Umani”.

Tags: , , , , ,

Ancora nessun commento.

Lascia una risposta