I terroristi hanno già iniziato ad usare la IA per le loro guerre

0
112
Scopri perché il Giappone è diverso dagli altri paesi

Avete un piano di emergenza familiare in caso di attacchi con armi autonome, guidate da intelligenza artificiale? In caso negativo, continuate a leggere questo articolo, per capire tutto quello che stanno facendo i terroristi grazie alla IA in questi ultimi mesi.

E’ difficile separare l’iperbole e le sciocchezze fantascientifiche dalle preoccupazioni pratiche e reali, fatte per le persone comuni, quando si tratta di armi autonome. Nonostante gli avvertimenti del tanto compianto Stephen Hawking, siamo probabilmente lontani decenni dall’incubo distopico che gli esperti militari prevedono pensando ai campi di battaglia del futuro.

Non esiste un sindacato del crimine che detta limiti e regolamenti dello sviluppo di robot e droni equipaggiati con laser. È facile per l’individuo medio inquadrare il problema del robot assassino come qualcosa che potrebbe essere importante in futuro, ma non così pressante in questo momento, dato il recente arrivo sul mercano di questi gadget tecnologici.

C’è sempre qualche importante figura tecnologica che ci avverte di un destino sconosciuto – tipicamente in modi vaghi e spaventosi. 

C’è questa sorta di paura esistenziale che ci accompagna al sapere che il Pentagono e il Cremlino sono determinati a trovare modi per sfruttare l’IA per le guerre, ma nella maggior parte dei casi, non dobbiamo preoccuparci di missili autonomi e delle astronavi presenti nell’universo di Star Wars.

I robot killer, o quelle che saranno le macchine per la guerra, non saranno alcuna minaccia nei centri cittadini e urbani, quindi ci diciamo che, finché non finiamo in qualche zona di guerra, probabilmente saremo al sicuro.

Quindi i robot assassini sono una realtà prossima?

L’osservatorio dei diritti umani capisce e prende sul serio questi problemi e, attraverso la sua campagna per fermare il progresso per questo tipo di macchine, l’organizzazione si sta dedicando alla missione incredibilmente difficile di diffondere la consapevolezza sulle armi autonome – soprattutto per quanto riguarda l’uso governativo, militare e della polizia. Un compito non facile se pensiamo alla corsa all’armamento sempre attuale tra gli stati sovrani.

E, se ce lo chiedete, il problema delle armi autonome è un problema che il grande pubblico potrebbe non essere ancora in grado di comprendere appieno. In un video pubblicato oggi (in lingua Inglese), la Campagna ci mostra un drammatico spaccato di vita immaginario che dipinge le macchine come imprevedibili e pericolose:

La coordinatrice della campagna, Mary Wareham, ha detto: il video mostra come potrebbe apparire un futuro attacco con armi completamente autonome. Mostra anche le serie preoccupazioni per la probabile mancanza di responsabilità per le armi guidate da IA.

Questi video sono spesso considerati come un fattore di paura e farsa. Ma considerate questo: per quanto possiamo vedere, non c’è tecnologia in questo video di finzione che non esista nel nostro mondo. Questo è un futuro che avrebbe potrebbe accadere oggi stesso, tecnologicamente parlando.

Particolarmente preoccupante, alla luce del commento di Wareham sulla responsabilità, è l’idea che le armi sviluppate dai governi per uso militare finiscano spesso nelle mani di organizzazioni terroristiche.

Una possibilità realistica, che preoccupa i governi

Alcuni potrebbero ricordare “Slaughterbots” di Stop Autonomous Weapons. In esso, una grande azienda tecnologica sale sul palco della conferenza per mostrare l’ultimo e più grande gadget per uso militare. Il risultato è puro orrore.

Molto simile all’episodio “Odiato nella nazione” di “Black Mirror”, ci mostra come i robot potrebbero ucciderci in modi che la persona media potrebbe non considererebbe mai. Questi due esempi possono essere finzione, ma sono importanti per aiutare quelli di noi che non pensano a questo tipo di tecnologia come una minaccia.

Non c’è bisogno di passare alla finzione per trovare esempi in cui l’IA potrebbe essere usata per automatizzare gli omicidi di massa. All’inizio di questo mese l’ingegnere siriano Hamzah Salam ha costruito una piattaforma di armi autonoma pienamente funzionante con un AK-47 e un computer. Lo chiama “cecchino elettronico”. È letteralmente una “pistola da sentinella”, come quelle dei videogiochi come “Call of Duty” e “Borderlands”.

Il creatore di questa piattaforma ha detto: può utilizzare qualsiasi arma di piccole dimensioni, da una mitragliatrice a un fucile da cecchino. Le telecamere trasmettono un segnale ad un computer, che analizza i dati ricevuti. Il suo compito principale è quello di tenere traccia del movimento. Il computer ha diversi scenari preimpostati. Se si nota un comportamento strano in un dato quadrante, si aprirà il fuoco.

Viviamo in un mondo in cui è possibile stampare in 3D un’arma da fuoco, montarla su un treppiede alimentato a batteria, e utilizzare un software open-source e Raspberry Pi per creare qualcosa che, solo pochi anni fa, sarebbe sembrato un’arma sperimentale all’avanguardia della ricerca militare.

Le cose stanno cambiando più velocemente di quanto la percezione pubblica possa gestire e siamo testimoni di questo cambio di scena tutti quanti. Per ora, non prevediamo che queste tecnologie siano un rischio per noi – o almeno – non nei prossimi anni. Vuoi scoprire le migliori notizie curiose? Torna a trovarci.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome