Robot killer, cosa sono e perché dobbiamo temerli

Dal Web
robot killer sono robot militari potenzialmente in grado di sostituirsi ai soldati sul campo di battaglia. Dotati di intelligenza artificiale e con capacità decisionali autonome, promettono – o minacciano – di rivoluzionare il modo di fare la guerra. Secondo il Dipartimento della Difesa americano, entro il 2050 gli eserciti saranno formati quasi esclusivamente da robot killer capaci di selezionare e colpire obiettivi senza l’intervento umano, senza che nessuno prema un pulsante. Sceglieranno loro come e quando sparare.

Robot killer, benedizione o sciagura?

Sui robot killer gli scienziati si dividono: per alcuni, i più entusiasti, saremmo di fronte a un’autentica rivoluzione bellica – la terza dopo l’invenzione della polvere da sparo e delle armi nucleari – che consentirebbe di ridurre drasticamente le perdite tra i soldati. Secondo altri, invece, un’eventuale corsa agli armamenti “intelligenti” sarebbe una sciagura e significherebbe autorizzare un uso distorto e pericoloso dell’intelligenza artificiale. I robot da guerra sono “una pessima idea – si legge in un appello firmato da oltre mille scienziati – immaginate cosa succederebbe se finissero nelle mani di terroristi e dittatori: verrebbero utilizzati per eseguire attentati, colpi di stato, operazioni di pulizia etnica”.

Robot killer e terrorismo

I manager di 24 Stati hanno chiesto alle Nazioni Unite di mettere al bando i robot killer. Nell’estate 2017, 116 imprenditori del settore della robotica e dell’intelligenza artificiale hanno firmato un appello all’Onu. Il pericolo, dicono, è che i robot killer possano essere utilizzati anche dai terroristi e possano diventare protagonisti di guerre capaci di distruggere l’umanità.
Tra i firmatari dell’appello ci sono anche Elon Musk, esperto di intelligenza artificiale, e Mustafa Suleyman di Google. Questi robot, affermano, possono finire nelle mani del terrorismo ed essere utilizzati contro persone innocenti.
Potresti leggere in proposito anche:

I robot killer sono la negazione delle leggi di Asimov

Vista la loro la “facoltà” di uccidere, i robot killer pongono anche un problema di tipo etico-giuridico: se per un errore di valutazione dovessero sbagliare obiettivo e colpire ad esempio dei civili, di chi sarebbe la colpa? Di chi li ha costruiti, di chi li ha programmati o del comandante dell’operazione militare?
Da un punto di vista puramente letterario, invece, i robot da guerra rappresentano l’esatto rovesciamento delle tre leggi della robotica di Isaac Asimov, in particolare della prima legge che dice che “un robot non può recar danno a un essere umano né può permettere che a causa del proprio mancato intervento un uomo riceva danno”.

Robot killer: Usa, Corea e Gran Bretagna fanno le prove generali

Le implicazioni di carattere morale e legale derivanti dall’uso dei robot killer non sembrano tuttavia preoccupare Paesi come gli Stati Uniti, la Corea del Sud e la Gran Bretagna che stanno già sperimentando robot semi autonomi – per lo più droni militari – con scopi offensivi e compiti di sorveglianza. Uno di questi è il Samsung Techwin SGR-A1, un robot sentinella progettato per essere utilizzato nella zona demilitarizzata al confine tra le due Coree. Dotato di intelligenza artificiale ed equipaggiato con videocamere a infrarossi, mitragliatrice e lanciagranate, questo robot da guerra può individuare e colpire bersagli in movimento in un raggio di 3,2 km. Per il momento viene ancora comandato a distanza, ma in futuro potrebbe fare tutto da solo.

Tra i “precursori” dei robot killer c’è anche Taranis, un drone britannico con un alto grado di autonomia. Prodotto da BAE Systems, Taranis è invisibile ai radar e può trasportare armi, anche se almeno inizialmente sarà utilizzato per missioni di intelligence in territorio nemico. Lo sviluppo del primo prototipo, finanziato in parte anche dal Ministero della Difesa inglese, è costato circa 220 milioni di euro.
Vediamo insieme il primo volo di Taranis:


Commenti