Ai confini dell’Europa si sta combattendo una guerra anche a colpi di cyber attacchi e nuove tecnologie. L’Ucraina si sta avvalendo di droni di consumo a basso costo reimpiegati come armi di guerra e software personalizzati a costi ridottissimi. In più, si sta aprendo la strada ad armi sempre più “autonome”. Gli ultimi sviluppi nel mio articolo per Agenda Digitale
La guerra tra Russia e Ucraina continua da più di un anno, tra cyber attacchi e impiego di nuove tecnologie.
Una guerra a colpi di tecnologia
In primo piano tra le nuove tecnologie sicuramente ci sono i droni, da quelli russi ad ala fissa Orlan-10 per il monitoraggio delle truppe sul territorio e dell’artiglieria, ai droni ucraini Bayraktar TB2, prodotti dall’azienda turca Baykar Technologies, capaci di attaccare carri armati e camion del nemico. In risposta, la Russia ha schierato i droni iraniani Shahed-136 con l’obiettivo di danneggiare l’infrastruttura energetica ucraina. Missione compiuta a dicembre 2022 nella città di Odessa, che conta 1 milione di abitanti. Quello che è emerso in questi mesi di guerra è che bisogna spingere la tecnologia per riuscire a resistere e contrattaccare il nemico. Da qui la continua necessità di aggiornare gli strumenti di guerra, i droni in primis.
Armi autonome
L'opzione di robot da combattimento autonomi sembra sempre più vicina, anche perché, secondo analisti militari e ricercatori di AI, più si va avanti a combattere, più si affinano le tecniche di guerra e man mano gli stessi droni arriveranno a muoversi senza l’aiuto dell’uomo. Kiev ha già nella sua artiglieria droni d’attacco semi-autonomi e armi dotate di AI per combattere i droni nemici, anche se è certo che nessuna nazione ha messo ancora in campo robot che possano uccidere in autonomia. Il tenente colonnello ucraino Yaroslav Honchar, cofondatore dell’associazione no-profit per l’innovazione dei droni da combattimento Aerorozvidka, lo stesso che ha guidato l’innovazione dei droni in Ucraina, ha dichiarato in una recente intervista che i combattenti umani non sono in grado di elaborare informazioni e prendere decisioni con la stessa rapidità delle macchine.
Tra i droni che attualmente possono essere definiti semi-autonomi e che potrebbero essere convertiti in totalmente autonomi ci sono lo Switchblade 600, prodotto negli Stati Uniti, e il Warmate, prodotto in Polonia. Entrambi hanno bisogno dell’intervento umano per la scelta dei bersagli da attaccare, attraverso un video in diretta, e poi subentra l’intelligenza artificiale, ma i droni sono già in grado di riconoscere obiettivi come i veicoli blindati utilizzando immagini catalogate.
Un esempio su cui si sta già lavorando viene dalla società di difesa MARSS, con sede a Monaco. Quest’ultima, per contrastare i droni Shahed-136, di cui è dotata la Russia, sta sviluppando un sistema di difesa autonomo in grado di disturbare il loro GPS e rilasciare un drone intercettore autonomo che sarà programmato per distruggere quello nemico.
Cosa esiste già
Il livello tecnologico dell’Ucraina in questo ambito è superiore a quello del resto dei paesi occidentali. Per esempio, possiede sistemi di caccia con droni forniti di piccoli radar e veicoli aerei senza pilota, alimentati da intelligenza artificiale, della Fortem Technologies, con sede nello Utah. Questi radar sono programmati per individuare i droni nemici, che vengono disattivati dagli UAV sparando reti contro di loro, senza che vi sia l’intervento dell’uomo.
Oltre all’Ucraina, sono all'avanguardia Israele, con i droni dotati di intelligenza artificiale, gli Harpy, esportati da anni e capaci di distruggere i radar e sostare al di sopra di quelli antiaerei per nove ore in attesa che si accendano, Pechino con l’elicottero senza pilota chiamato Blowfish-3, la stessa Russia, con il drone subacqueo AI a propulsione nucleare, Poseidon, ancora in fase di progettazione, e i Paesi Bassi con i loro test su un robot terrestre dotato di una mitragliatrice calibro 50.
Un dibattito in corso
Ovviamente, questi sviluppi generano altrettante discussioni sull’affidabilità della tecnologia quando non è previsto l'intervento dell'uomo: come garantire che le macchine non commettano errori e non tolgano la vita a persone non combattenti?
Ingvild Bode della University of Southern Denmark si è espressa sull’argomento affermando che ci sono diverse ricerche sul condizionamento dell’automazione, “automation bias” che evidenziano che “Tendiamo a fidarci dei risultati che ci vengono presentati dai sistemi assistiti da computer più del nostro giudizio”, per cui un operatore di droni sotto stress risponderebbe alla richiesta della macchina come a un ordine, più che a un’indicazione su come agire.
Il dibattito riguarda anche la regolamentazione dei droni militari a livello internazionale. Russia e Stati Uniti, negli ultimi nove anni di colloqui informali con le Nazioni Unite a Ginevra, si sono sempre opposti al divieto. Gli americani, in particolare, temono che i nemici che sviluppano i droni non siano in grado di utilizzarli davvero in maniera etica. Toby Walsh, accademico australiano contrario ai droni killer, teme che possano proliferare prima di quanto immaginiamo e più facilmente delle armi nucleari e spera che si raggiunga un accordo che preveda il divieto di utilizzare il riconoscimento facciale e altri dati per identificare o attaccare individui o categorie di persone.
È sempre vivo il rischio che le armi AI possano finire nelle mani del terrorismo. Ad oggi, il Pentagono non ha definito chiaramente “un’arma autonoma abilitata all’intelligenza artificiale”, né ha autorizzato una singola arma di questo tipo per l’uso da parte delle truppe statunitensi, come affermato da Allen, ex funzionario del Dipartimento della Difesa. Ogni sistema proposto deve essere approvato dal presidente dello Stato Maggiore e da due sottosegretari. Questo non impedisce che le armi vengano sviluppate in tutti gli Stati Uniti. I progetti sono in corso presso la Defense Advanced Research Projects Agency, i laboratori militari, le istituzioni accademiche e il settore privato.
Al di là dei timori e delle perplessità, la direzione che sta prendendo questa guerra è quella della sempre maggiore automazione e autonomia delle armi e c’è da chiedersi se sia legittimo o meno lasciare a procedure artificiali il destino di intere nazioni e future generazioni.
Fonte: Agenda Digitale