L’avvertimento del Pentagono arriva mentre entrambi i paesi cercano di portare nuove tecnologie di sorveglianza abilitate all’intelligenza artificiale per tenere sotto controllo le loro popolazioni.

drone cina russia

Sia la Cina che la Russia stanno sviluppando droni autonomi con il potenziale di uccidere senza alcun coinvolgimento umano, hanno avvertito i capi militari statunitensi.

I leader del Pentagono responsabili delle applicazioni militari americane dell’intelligenza artificiale sostengono che entrambi i paesi ignorano i limiti etici o le considerazioni sull’uso di tali droni.

L’intelligenza artificiale è sempre più utilizzata sia nelle operazioni civili che in quelle militari.

I commenti sono arrivati da Nand Mulchandani, direttore ad interim del Joint Artificial Intelligence Center, secondo una trascrizione del Pentagono.

“Sappiamo che la Cina e la Russia stanno sviluppando ed esportando tecnologie di sorveglianza abilitate all’IA e sistemi di combattimento autonomi senza fornire alcuna prova di adeguate salvaguardie e politiche tecniche o etiche”, ha detto ai giornalisti.

Mulchandani ha evidenziato l’uso dell’IA da parte della Cina per questioni di polizia nazionale come la censura e il riconoscimento facciale, ma ha anche messo in guardia da molte applicazioni militari che stanno causando allarme.

Leggi anche -> Covid, OMS: “Giovani inizino movimento per la salute”

Questo mese in Cina, ad esempio, i funzionari hanno dispiegato droni per combattere gli sciami di locuste nei terreni agricoli devastati.

Ha detto che alcuni vincoli etici potrebbero non esistere per gli sviluppatori di armi russi o cinesi, che potrebbero rapidamente sfruttare diversi tipi di robot da guerra.

Per esempio, i droni armati potrebbero avanzare sui soldati nemici senza bisogno di un umano per farli funzionare, e usare i sensori incorporati per evitare ostacoli, trovare obiettivi e persino sparare autonomamente.

Il National Interest riferisce che il Pentagono ha continuato ad usare la sua attuale dottrina “man-in-the-loop“.

Ciò significa che tutte le decisioni riguardanti l’uso della forza letale da parte di veicoli senza pilota, droni e altri sistemi devono essere prese da un essere umano.

Rapidi progressi nell’autonomia e nell’intelligenza artificiale rendono possibile che tali sistemi possano rilevare, rintracciare e distruggere obiettivi senza alcun coinvolgimento umano.

Leggi anche -> ONU: “Isis potrebbe sfruttare il coronavirus per attacchi terroristici”

Oltre alle questioni etiche relative all’uso di sistemi autonomi per uccidere, ci sono anche ragioni tecniche per cui il Pentagono insiste sul coinvolgimento umano.

drone cina russia

Un sistema di IA è efficace solo quanto il suo database, il che significa che alcuni algoritmi potrebbero non avere ancora sufficiente affidabilità per identificare accuratamente tutto ciò che viene rilevato.