L’IMPIEGO DEI ROBOT
PER FINALITÀ MILITARI

Byron Reese*

La tecnologia ha trasformato il modo di fare la guerra decine di volte nel corso degli ultimi millenni. La metallurgia, il cavallo, il carro, la polvere da sparo, la staffa, l’artiglieria, gli aerei, le armi atomiche e i computer hanno tutti avuto un notevole impatto sul modo in cui ci ammazziamo.

 

I robot e l’IA produrranno un nuovo cambiamento. Costruiremo armi che i robot potranno decidere di usare per uccidere in modo autonomo in base alla loro programmazione? I fautori di questa eventualità ritengono che i robot ridurranno il numero delle vittime civili perché seguiranno esattamente i protocolli. In una frazione di secondo, un soldato soggetto alla fatica e alla paura può commettere un errore letale. Ma per un robot, una frazione di secondo è più che sufficiente.

Ciò sarà pur vero, ma non è questo il motivo principale per cui gli eserciti di tutto il mondo adotteranno i robot dotati di IA. Per loro, queste armi sonorilevanti per tre motivi. Primo, saranno più efficaci dei soldati nelle missioni. Secondo, esiste il timore che i potenziali avversari stiano sviluppando queste tecnologie. Terzo, ridurranno le perdite umane degli eserciti che le impiegheranno.

Quest’ultimo motivo avrebbe un effetto collaterale agghiacciante: riducendone i costi politici, potrebbe rendere la guerra uno strumento più diffuso.

Al momento, la questione fondamentale è se si può consentire o meno a una macchina di decidere autonomamente chi uccidere e chi risparmiare. Non mi sembra di esagerare sostenendo che è venuto il momento di decidere se è il caso di costruire robot killer. La questione non è se ne “siamo capaci”, lo siamo indubbiamente, la questione è se “dovremmo”.

 

No ad armamenti autonomi

Molte delle persone impegnate nella ricerca sull’IA per scopi civili ritengono che non dovremmo costruirli. Più di mille scienziati hanno firmato una lettera aperta per chiedere una messa al bando degli armamenti totalmente autonomi. Nel 2014, Stephen Hawking, tra i nomi di prestigio dei firmatari dell’appello, ha scritto un editoriale in cui ipotizzava che queste armi potrebbero portare alla distruzione della nostra specie attraverso una corsa agli armamenti dotati di IA.

Intorno a questo argomento sembra esservi un dibattito vivace, che sembra

però venato di ipocrisia. I robot dovrebbero poter decidere se uccidere? In un certo senso, è ciò che hanno fatto per oltre un secolo. Gli esseri umani non si sono fatti alcun problema a collocare mine che tranciano con la stessa efficacia le gambe dei soldati e dei bambini.

Queste armi dispongono di una forma rudimentale di IA: se qualcosa ha un peso superiore a 25 Kg, esplodono. Se un’azienda avesse messo sul mercato mine in grado di distinguere tra un bambino e un soldato, magari dal peso o dal passo, sarebbero state utilizzate per la loro maggiore efficacia. E sarebbe stato meglio, vero? Per lo stesso motivo sarebbe utilizzato un nuovo modello che fosse in grado di percepire la polvere da sparo prima di esplodere. Si arriverebbe quindi abbastanza presto alla costruzione di un robot capace di decidere un’uccisione in modo autonomo, senza l’intervento di esseri umani. È vero che attualmente le mine sono proibite da un trattato, ma il fatto che siano state impiegate diffusamente per tanto tempo indica che relativamente ai nostri armamenti accettiamo un livello di danni collaterali piuttosto elevato.

 

Una politica falsa

Anche la guerra condotta con droni, missili e bombe è altrettanto imprecisa. Queste armi sono tutte dei robot killer. È improbabile che rifiuteremo di usare altre macchine killer con maggiore capacità di discriminazione. Ma spero proprio di essere smentito su questo punto. Il professor Mark Gubrud, fisico e professore aggiunto del corso di Peace, War and Defense della University of North Carolina, afferma che per quanto riguarda le armi autonome, gli Stati Uniti hanno “una politica che finge di essere prudente e responsabile ma che in realtà apre la strada a uno sviluppo intenso e a un uso precoce delle armi autonome”.

Comunque, le minacce a cui questi armamenti dovrebbero far fronte sono reali. Nel 2014, le Nazioni Unite hanno organizzato un incontro sui “Lethal Autonomous Systems”. La relazione che ne è scaturita sostiene che queste armi sono ricercate anche dai terroristi, che probabilmente riusciranno a metterci sopra le mani. Inoltre, non mancano nel mondo sistemi di armamento attualmente in produzione che possono utilizzare in qualche misura l’IA. La Russia sta sviluppando un robot che può individuare e sparare a un essere umano da circa sei chilometri di distanza utilizzando una combinazione di radar, videocamere e termocamere. Un’azienda sudcoreana sta già commercializzando una torretta automatica da 40 milioni di dollari che, nel rispetto della legislazione internazionale, grida il messaggio “voltatevi e allontanatevi o altrimenti spareremo” a qualunque bersaglio potenziale entro una distanza di circa tre chilometri. Per dare l’ordine di fare fuoco serve l’intervento umano, ma si tratta di una funzionalità aggiunta su richiesta del cliente. Praticamente tutti i Paesi del mondo con un budget consistente per gli armamenti, probabilmente poco più di una ventina di nazioni, stanno sviluppando armi dotate di IA.

 

Nessuna area grigia

Come si potrebbe proibirne l’uso anche nel caso vi fosse la volontà collettiva di farlo? Una delle ragioni per cui si è riusciti a tenere sotto controllo la proliferazione degli armamenti nucleari è che non ammettono dubbi: una esplosione è causata da un ordigno nucleare oppure no. Non esiste un’area grigia. I robot dotati di IA sono invece grigi più del grigio. Quanta IA ci vorrebbe prima che l’arma sia considerata illegale? La differenza tra una mina antiuomo e Terminator è solo una questione di grado.

La tecnologia GPS ha limiti intrinseci. Non funziona nel caso di un oggetto che si sposti a una velocità superiore a 1.900 Km all’ora o che voli a un’altezza superiore ai 18.000 metri. Questo per evitare che possa guidare i missili. Ma è quasi impossibile tenere sotto controllo il software, pertanto è probabile che l’IA che alimenterà gli armamenti sarà facilmente disponibile.

L’hardware necessario per questi sistemi è costoso rispetto alle armi rudimentali dei terroristi, ma ha un costo minimo se paragonato alle armi convenzionali più potenti. Vista la situazione, temo che tutti i tentativi per proibire queste armi siano destinati a fallire. Anche se un robot è programmato per identificare un bersaglio e poi ricevere l’autorizzazione da un essere umano per distruggerlo, questo passaggio può essere evitato spostando un interruttore.

I robot dotati di IA saranno percepiti come una minaccia tale alla sicurezza

nazionale che molte nazioni non vorranno rischiare di non possederli. Durante la Guerra fredda, eravamo spesso preoccupati da possibili falle, anche solo percepite, della capacità militare rispetto a Paesi potenzialmenteostili.

Basti pensare al gap dei bombardieri degli anni Cinquanta o a quello missilistico del decennio successivo. Un eventuale divario che riguardi l’IA è ancora più inquietante per coloro che hanno l’incarico di occuparsi dei piani di chi minaccia il mondo.

*

  • Capitolo tratto dal libro “La quarta era” pubblicato da Franco Angeli, Milano, anno 2019, (pagg.129 – 131)

 

 

 

 

 

Byron Reese è CEO della società di ricerca Gigaom e fondatore di diverse aziende high-tech. I siti web da lui creati – dedicati a esplorare quell’area di intersezione tra tecnologia, business, scienza e storia – hanno avuto nel loro insieme oltre un miliardo di visitatori. È autore di diversi libri come Infinite Progress; How the internet and technology will end ignorance, disease, poverty, hunger and war. The Fourth era è stato tradotto in italiano da Franco Angeli Editore.

Condividi
Share

Commenti

be the first to comment on this article

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Vai a TOP