Lethal autonomous weapons (o le armi che nessuno vuole)

Si sente parlare sempre più spesso di intelligenza artificiale ma soprattutto delle sue possibili applicazioni. Dalla manutenzione predittiva, in grado di segnalare un malfunzionamento ancor prima che un componente si danneggi, alla medicina per poi passare al marketing e al settore distributivo. Computer in grado di agire in maniera autonoma e di aiutare, se non addirittura superare, le capacità di elaborazione dati dell’uomo.

L’applicazione di queste tecnologie ha però un ambito che anche gli addetti ai lavori hanno timore possa trasformarsi in realtà: l’A.I. applicata alle armi. O per meglio dire armi autonome, in grado di colpire un nemico senza l’intervento umano. In inglese vengono definite Lethal autonomous weapons, ossia armi in grado di colpire un bersaglio in maniera autonoma una volta stabiliti determinati parametri operativi.

A chiunque sarà tornata in mente la figura di Terminator e le conseguenze per l’umanità dopo che Skynet aveva preso il controllo nel film di James Cameron. Quel futuro, così drammatico e distopico, per molti potrebbe anche diventare realtà.

Le reti 5G, che vedranno la loro comparsa a partire dal 2020, consentiranno di aumentare di 100 volte le velocità di connessione attuali con latenze bassissime, dunque i computer saranno in grado di connettersi e comunicare in maniera immediata ma soprattutto efficiente. Questo consentirà di rendere intelligente tutta la rete e non solo il singolo computer. Macchine intelligenti in grado di comunicare reciprocamente, scambiandosi dati e interagendo senza nessun intervento umano. Una sorta di consapevolezza che tanto ricorda Skynet.

Già oggi i droni, o per meglio dire gli aeromobili a pilotaggio remoto, rappresentanode facto il primo tentativo di rimuovere la presenza umana, anche se questa è ancora necessaria seppur a distanza, anche, di migliaia di chilometri. In questi casi si parla di “Guerra Robotica” perché l’uomo non viene coinvolto direttamente.

The Future of Life Institute (FLI) è un’organizzazione no profit che lavora per un’evoluzione etica delle tecnologie compresa l’intelligenza artificiale. Tra i membri del consiglio direttivo spiccano i nomi di Elon Musk, Morgan Freeman e dell’italiana Francesca Rossi ma anche quello di Stephen Hawking, prima della sua scomparsa. In Slaughterbots, un corto di otto minuti realizzato per conto dell’FLI, viene mostrato un futuro dove le armi autonome, tanto potenti quanto infallibili, diventano il mezzo per colpire nemici e oppositori civili la cui unica colpa è quella di essersi interessati un po’ troppo a questioni politiche pubblicando sui social messaggi “scomodi”.

Nel corto i droni, grazie a sensori e software di riconoscimento facciale, riescono a colpire tutti i bersagli senza mancarne uno. Il video ha ovviamente lo scopo di sensibilizzare l’opinione pubblica, ma queste tecnologie, in realtà, già oggi sono sempre più in via di perfezionamento.
Per quanto riguarda i software di riconoscimento facciale è notizia recente l’arresto a Brescia di due georgiani, che a luglio avevano commesso una rapina, grazie al programma “Sari – Sistema automatico di riconoscimento immagini” in possesso della polizia scientifica e in grado di riconoscere i volti confrontandoli con un database di soggetti schedati.

Ma anche i mini droni sono stati recentemente testati dall’aviazione statunitense, anche se la notizia è passata abbastanza inosservata. In un video pubblicato dalla Difesa americana si vede un jet che rilascia decine e decine di piccoli droni che secondo William Roper del DoD, “sono già capaci di operare collettivamente, condividendo scelte e decisioni, esattamente come uno sciame di insetti” come riportato dal sito Analisi Difesa.

Gli anglofoni la definiscono “Swarm Intelligence”, termine coniato per la prima nel 1988 da Gerardo Beni, Susan Hackwood e Jing Wang. Questo tipo di intelligenza si basa sulla collettività e un’azione complessa è il frutto di un’intelligenza collettiva, un po’ come accade tra le colonie di insetti o tra stormi di uccelli, banchi di pesci o mandrie di mammiferi. Non c’è alcun tipo di organizzazione in questo tipo di azioni e il singolo individuo, da solo, dispone di capacità limitate. È il gruppo a creare un’intelligenza, spesso, anche molto evoluta.

Il progetto europeo I-Swarm (Intelligent Small World Autonomous Robots for Micromanipulation), che vede tra i protagonisti anche l’Italia, sta provando a replicare questo tipo di intelligenza in robot millimetrici. In questo caso si parla di “Swarm Robotic” e le applicazioni future sono molteplici: dall’analisi ambientale, all’esplorazione spaziale sino alla biomedicina.

Collegando tutti i pezzi di questo complesso puzzle, la prospettiva tanto temuta dagli scienziati e ipotizzata in numerose pellicole di fantascienza, in cui armi autonome si ribellano all’uomo, pur essendo molto improbabile non risulta del tutto impossibile.

Prendere lezioni da un film non è forse l’idea più saggia, ma un coro unanime di esperti che teme l’applicazione dell’intelligenza artificiale alle armi dovrebbe far drizzare le antenne a chiunque.

Già a luglio 2015 mille, tra esperti di intelligenza artificiale, hanno firmato una lettera congiunta in cui si invitava a prestare particolare attenzione per quanto riguarda lo sviluppo di armi autonome, arrivando addirittura a chiederne il divieto. La lettera, presentata a Buenos Aires durante la ventiquattresima Conferenza Congiunta Internazionale sull’Intelligenza Artificiale è stata cofirmata tra gli altri da Stephen Hawking, Elon Musk, Steve Wozniak e Demis Hassabis  cofondatore di Google DeepMind.

Tutte queste iniziative e ammonimenti non sembrano aver fermato la corsa a questi nuovi armamenti. “Il destino non è scritto, ma è quello che noi ci creiamo” affermava John Connor in Terminator Salvation. Forse prendere lezioni da un film, in questo caso, non sarebbe un’idea tanto sbagliata.

 

Ancora nessun commento.

Lascia una risposta