Nel mondo dell’intelligenza artificiale e non solo sta nascendo una nuova preoccupazione che fa tremare i governi delle grandi potenze: la possibilità che le armi controllate dall'IA possano essere utilizzate da terroristi o gruppi hacker per scopi malevoli. I dettagli nel mio articolo per Agenda Digitale
Le restrizioni del presidente Usa Joe Biden di qualche mese fa sulla vendita dei chip alla Cina non erano finalizzato solo a rimettere in gioco l’industria americana. Vediamo perché.
AI e armi: i timori sulla gestione del campo bellico
Lo scorso ottobre l’amministrazione USA aveva annunciato forti restrizioni sulla vendita di chip per computer avanzati alla Cina, non solo per consentire all’industria americana di tornare in pista come competitor, ma anche per avere il controllo degli armamenti. In questo modo gli USA e gli altri paesi avevano la possibilità di regolamentare l’applicazione dell’intelligenza artificiale nei sensori, nei missili e nelle armi informatiche, così da scongiurare anche il pericolo di robot killer e computer autonomi, mentre la Cina rallentava lo sviluppo delle armi guidate dall’AI, non potendo reperire i chip necessari.
Secondo i funzionari del Pentagono, però, sicuramente né Cina né Russia sarebbero state fermate da questa pausa nello sviluppo di intelligenza artificiale e iniziative simili. Tra gli interrogativi e i timori, quello sulla possibilità che ChatGPT possa favorire gli scontri tra le grandi potenze, senza passare da colloqui diplomatici e negoziali.
I tentativi di autoregolamentazione da parte dell’industria
L’ex presidente di Google, Eric Schmidt, presidente inaugurale del Defense Innovation Board dal 2016 al 2020, ha parlato dei vari tentativi di autoregolamentazione da parte dell’industria e delle “conversazioni informali che si stanno svolgendo nel settore – tutte informali – su come dovrebbero essere le regole della sicurezza dell’A.I.”. Lo si vede già dalle prime iterazioni di ChatGPT, che non risponde a domande “pericolose”, ad esempio su come paralizzare le centrifughe nucleari o su come far esplodere una diga.
In realtà, il Pentagono ha dovuto fare i conti con questo problema già anni fa, quando ha istituito il Joint Artificial Intelligence Center, dedicato proprio allo studio dell’applicazione dell’intelligenza artificiale in guerra.
Le armi autonome già esistenti
Nonostante i timori attuali, è importante precisare che esistono già armi che funzionano con il pilota automatico, come i missili Patriot, che sono in grado di abbattere missili o aerei che entrano in uno spazio aereo protetto senza l'intervento umano e lo fanno anche in maniera più rapida, anche se in teoria è prevista una supervisione umana.
L’Ucraina,per esempio, da questo punto di vista, si sta dimostrando più tecnologica dell’Occidente. Infatti, sono già in suo possesso sistemi di caccia con droni forniti di piccoli radar e veicoli aerei senza pilota, alimentati da intelligenza artificiale, della Fortem Technologies, con sede nello Utah. Questi radar sono programmati per individuare i droni nemici, che vengono disattivati dagli UAV sparando reti contro di loro, senza che vi sia l’intervento dell’uomo.
Anche Israele dispone di droni dotati di intelligenza artificiale, gli Harpy, esportati da anni e capaci di distruggere i radar e sostare al di sopra di quelli antiaerei per nove ore in attesa che si accendano.
Pechino è in possesso dell’elicottero senza pilota chiamato Blowfish-3; in Russia è in fase di progettazione Poseidon, il drone subacqueo AI a propulsione nucleare, che sarebbe in grado di attraversare un oceano in modo autonomo, eludendo le difese missilistiche esistenti, per consegnare un’arma nucleare pochi giorni dopo il lancio. Infine, nei Paesi Bassi è in fase di test su un robot terrestre dotato di una mitragliatrice calibro 50.
Necessaria una regolamentazione
Non esistono ancora delle linee guida sull’utilizzo di strumentazione autonoma, ma sono certamente necessarie, in particolare in ambito militare e di sicurezza nazionale, per la rapidità con cui si agisce, anche a seguito di allarmi fuorvianti o addirittura falsi. Se la presenza umana garantisce un tempo decisionale, con la sola presenza dell’AI ne esiste un altro, automatico e quindi più veloce, con un ovvio aumento del rischio di attacchi accidentali.
Come lo stesso Schmidt ha dichiarato, “Un problema centrale dell’IA in ambito militare e di sicurezza nazionale è come difendersi da attacchi che sono più veloci del processo decisionale umano, e credo che questo problema sia irrisolto […] In altre parole, il missile arriva così velocemente che deve esserci una risposta automatica. Cosa succede se si tratta di un falso segnale?”. Un esempio lampante di falso allarme si è verificato durante la Guerra Fredda, generato dall’inserimento di un nastro di addestramento per esercitarsi alla risposta nucleare nel sistema sbagliato, da cui scaturì l’allarme di un potente attacco sovietico.
L’intelligenza artificiale potrebbe accelerare anche il potere decisionale dei governi. Anja Manuel, ex funzionario del Dipartimento di Stato e ora responsabile del gruppo di consulenza Rice, Hadley, Gates e Manuel, ha scritto di recente che anche se la Cina e la Russia non fossero pronte per i colloqui sul controllo degli armamenti in materia di AI, gli incontri sull’argomento porterebbero a discutere quali usi dell’AI sono considerati “al di là del limite”.
Il vero problema è l’uso che ne potrebbero fare i singoli, terroristi o gruppi hacker, per esempio accelerando i cyberattacchi scatenando ondate di disinformazione.
Conclusioni
Gli esperti ritengono che sia difficile arrestare l’evoluzione di questi sistemi avanzati come ChatGPT e simili, ma bisogna porre dei limiti sui chip speciali e altre potenze di calcolo che consentono l’avanzamento della tecnologia, almeno per cercare di controllare gli armamenti.
Fonte: Agenda Digitale