Il cane robot con il mitra sulla schiena (in barba ad Asimov) spaventa e fa riflettere

 2 Novembre 2022 Nicodemo Angì 76 Views  0 Commenti

Ha fatto sensazione negli scorsi giorni un video su Weibo che mostrava un drone professionale atterrare e sganciare un cane-robot con un inquietante mitragliatore sul dorso. Il filmato è ovviamente salito agli onori della cronaca dando vita a una ridda di interpretazioni e commenti più o meno allarmati e sensazionalistici.

Quelle immagini dovrebbero invece stimolare riflessioni profonde sull’etica e sulle finalità della robotica, un settore che è allo stesso tempo motore e conseguenza della profonda evoluzione dell’industria.

Indice degli argomenti

Il Robodog arriva dal cielo

Il video in questione è apparso su Weibo – una sorta di Twitter cinese – e, come verificato da Business Insider, è stato pubblicato da Kestrel Defense Blood-Wing, un account verificato appartenente a un general contractor militare cinese. Lia Wong, che si definisce “traduttrice di tweet dal cinese e dal giapponese e analista amatoriale di questioni dell’area indo-pacifica”, l’ha diffuso su Twitter commentando “The future is now”.

Dal canto suo Kestrel suggerisce vari ‘impieghi’ di questi robodog, ad esempio posizionandolo sul tetto di un edificio del nemico per colpirlo dall’alto o nelle sue retrovie. L’azienda invita i lettori a un incontro presso il suo stand nel prossimo Zhuhai Air Show, fiera internazionale del settore aerospaziale che si terrà nella città di Zhuhai in Cina.

L’ultimo di una serie

Per dovere di cronaca vanno citati altri esempi di robot quadrupedi armati, come quelli esposti da Ghost Robotics nel 2021 nel corso della conferenza annuale dell’Association of the United States Army 2021.

Il robot in questione è il Vision 60 sul quale è stata montata una versione dedicata del Defense Systems Special Purpose Unmanned Rifle (SPUR) prodotto dallo specialista statunitense Sword.

Spur ha una portata di 1.200 metri ed è decisamente più potente dell’arma vista nel video di Kestrel, identificata da TheDrive come una mitragliatrice leggera cinese QBB-97.

Ancor più ‘avanti’ è il video del robodog armato presentato da Alexander Atamanov, inventore e imprenditore tecnologico, che non solo si muove ma esplode sia colpi singoli sia raffiche, con il rinculo di queste ultime che appare non molto facile da gestire. Il robot sul quale è stata montata l’arma sembra essere di fabbricazione cinese, un Unitree da circa 3.000 dollari.

Etica aziendale (e statale) cercasi

Nel sito di Sword leggiamo testualmente che “SPUR è il futuro dei sistemi d’arma senza pilota, e quel futuro è adesso” e in effetti questo sistema d’arma si ricarica da solo e l’operatore può risolvere malfunzionamenti da remoto. Anche Ghost Robotics cita espressamente, per il suo Vision 60, impieghi anche nel settore della difesa, con tanto di foto in mezzo a soldati e mezzi militari.

Si potrebbero riferire altri esempi di impieghi militari dei Robodog e, nello stesso tempo, citare il fatto che Boston Dynamics, uno dei leader nel settore dei robot quadrupedi – è suo il celebre Spot – ha una politica rigorosa contro l’armamento delle sue macchine. L’azienda ha persino condannato un’installazione artistica che ha visto montata un’innocua arma da paintball (è ad aria compressa e spara palline che lasciano una traccia di colore) controllata a distanza e a turno da visitatori di un sito web.

Notiamo che la legislazione degli Stati Uniti non vieta lo sviluppo o il dispiegamento dei Lethal Autonomous Weapon Systems – LAWS – e quindi, se da un lato nascono gruppi (ad esempio Stop Killer Robots) che premono per un divieto preventivo di tali sistemi, dall’altro le aziende costruiscono ‘apparati’ non vietati.

I robot sono buoni o cattivi?

Questa domanda è ovviamente mal posta: l’acciaio non è né probo (anche se ci si costruiscono aratri, gru e automobili) né malefico (anche se ci si fanno cannoni, pistole e bombe): dipende da come lo si usa.

Lo stesso discorso vale per un coltello (può farci mangiare e uccidere) e anche per i robot.

L’automazione industriale usa massicciamente i robot nella produzione e i piccoli robot quadrupedi sono usati costruttivamente, per esempio in un cantiere edile a Bergamo nel quale un Robodog Spot monitora la sicurezza e rileva quote e condizioni in siti pericolosi. Del resto la forma di questi robot, il cui mimare forme biologiche è una delle tendenze citate dal professor Bruno Siciliano in una recente intervista, li rende particolarmente adatti a impieghi particolari come quelli dell’esplorazione della centrale nucleare di Fukushima danneggiata da uno tsunami.

La necessità di un controllo

Pensando a questi impieghi costruttivi e pacifici non si può non condannare questa deriva della robotica in una direzione pericolosa e inquietante.

Questa disapprovazione è stata espressa a chiare lettere da Vincenzo Lippiello, professore di Automatica e Robotica e ricercatore del PRISMA Lab (Projects of Industrial and Service Robotics, Mechatronics and Automation) dell’Università degli Studi di Napoli Federico II.

Il professor Lippiello, riferendosi al video del robot cane armato trasportato da un drone, ha commentato che “la totalità degli scienziati impegnati nello sviluppo di sistemi robotici si rifà alle tre leggi della robotica, un insieme di precetti concepiti già molti decenni fa dallo scrittore di fantascienza Isaac Asimov. Equipaggiare un sistema robotico con armi contraddice questi principi e lo spirito che anima le ricerche della comunità robotica internazionale”.

Il trasporto di un cane robot con un drone “è stato teorizzato inizialmente dalla nostra comunità per finalità di ricerca e salvataggio in scenari di emergenza, ad esempio nelle aree terremotate. Tuttavia, abbiamo visto che la stessa soluzione tecnologica può essere usata per finalità offensive, oppure può fornire uno strumento di intervento con scopi difensivi in uno scenario di attacco terroristico. È quindi evidente la sottile linea di confine esistente tra l’impiego di una soluzione tecnologica per finalità umanitarie, di protezione civile o addirittura belliche”.

Le responsabilità dell’uomo

Le questioni sollevate dal cane robot armato sono molte e spinose e sono esposte dal professor Lippiello in questi termini: “Se si trattasse di un sistema telecomandato da un soldato o da un agente di polizia, a seconda dello scenario, ci troveremmo di fronte ad una mera estensione delle capacità operative di un individuo che risponderà per le azioni eseguite dalla macchina. Se invece la macchina fosse dotata di un sistema di intelligenza artificiale, ovvero fosse completamente autonoma nella scelta dei propri obiettivi, se potesse quindi ‘decidere’ di aprire il fuoco nei confronti di un bersaglio, chi sarebbe considerato responsabile dell’azione? Il proprietario del robot, il programmatore che ha scritto il codice che governa la macchina o altri soggetti ancora?”.

Vincenzo Lippiello

Gli strumenti forniti dall’evoluzione delle tecnica e delle scienze possono avere diverse applicazioni “e il progresso scientifico è inarrestabile, ma non un valore assoluto in sé, a prescindere dall’uso che l’uomo decide di farne. La finalità non dipende dallo strumento bensì da una scelta soggettiva di carattere etico e politico. Il tema del rapporto tra progresso tecnico e etica con lo sviluppo dei sistemi di intelligenza artificiale per il controllo di macchine sempre più sofisticate e potenzialmente pericolose è chiaramente di enorme importanza e credo necessiti di un codice normativo determinato e condiviso a livello internazionale”.

Dalla letteratura all’etica

Concepite da Isaac Asimov già negli anni ‘40 del secolo scorso, le Tre leggi della robotica testimoniano la genialità di questo scrittore-divulgatore e la sua capacità di cogliere le implicazioni future dei robot, macchine che in quei tempi neppure esistevano.

Esse sono:

  1. Un robot non può recar danno a un essere umano né può permettere che, a causa del suo mancato intervento, un essere umano riceva danno;
  2. Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non vadano in contrasto alla Prima Legge
  3. Un robot deve proteggere la propria esistenza, purché la salvaguardia di essa non contrasti con la Prima o con la Seconda Legge.

La validità di questo nucleo giuridico-etico è arrivata fino a oggi, citato anche dal presidente di Siri Domenico Appendino, ma, a differenza dei tempi di Asimov, siamo già al punto che i robot sono concretamente presenti e attivi nel quotidiano.

La necessità di una regolamentazione forte e ispirata a criteri inflessibilmente etici (di un’etica umana e non di altro tipo) si è fatta quindi pressante.

In uno dei romanzi di Asimov si legge di un robot il cui ‘cervello positronico’ si danneggia irreparabilmente perché un umano gli chiede di far del male a un altro umano: dobbiamo quindi porci, per tempo, la questione di stabilire come reagirebbe per esempio l’umanoide Prime in una situazione simile.

Questa necessità è per esempio rappresentata da una recente lettera aperta, firmata da Boston Dynamics, Agility Robotics, AnyBotics, Clearpath Robotics, Open Robotics e Unitree, nella quale si legge a chiare lettere “General Purpose Robots Should Not Be Weaponized”. Queste aziende evidenziano il loro impegno in questo senso e chiedono nello stesso tempo ai responsabili politici e agli sviluppatori, ricercatori e utenti della comunità robotica una piena collaborazione per promuovere un uso sicuro di questi robot e per proibirne l’uso improprio, come l’equipaggiarli con armi offensive.

WhatsApp

Telegram

Pocket

Share

Email

Tweet

Share

© RIPRODUZIONE RISERVATA 

Nicodemo Angì

Metà etrusco e metà magno-greco, interessato alle onde (sonore, elettriche, luminose e… del mare) e di ingranaggi, motori e circuiti. Da sempre appassionato di auto e moto, nasco con i veicoli “analogici” a carburatore e mi interesso delle automobili connesse, elettriche e digitali.