Non esiste una definizione di Intelligenza Artificale comunemente accettata e la terminologia usata spesso è fuorviante. Le moderne applicazioni dell’IA non mostrano, infatti, alcuna forma di intelligenza simile a quella umana sia per capacità che per consapevolezza.

Se parliamo di Intelligenza Artificiale dobbiamo immaginare una famiglia di tecnologie che va dalla rappresentazione della conoscenza al ragionamento automatico, sottendendo aree quali la pianificazione ed il supporto decisionale, fino alla percezione dell’apprendimento automatico.

Molti interrogativi d’altra parte emergono sul potenziale impatto che queste nuove tecnologie possono avere per l’Alleanza.

L’11-14 ottobre a Londra, nella 65° Sessione Annuale dell’Assemblea parlamentare NATO si è discusso anche di questo. Dal  Report del collega sloveno Matej Tonin “ARTIFICIAL INTELLIGENCE : IMPLICATIONS FOR NATO’S ARMED FORCES” emergono spunti interessanti .

Dal rapporto possiamo dedurre che oltre all’impiego in settori civili, è nel campo militare e strategico che l’Intelligenza artificiale ha completamente cambiato le carte in tavola, tanto da poterla considerare artefice di una trasformazione della tecnologia nella sicurezza nazionale al pari degli armamenti nucleari, dell’avvento computer e della biotecnologia. Il suo impiego potrebbe portare ad una rivoluzione in ambito militare e ridefinire persino la nozione stessa di difesa.

 

Questa figura ci mostra l’intero ecosistema delle IA . Si può agevolmente dedurre come questo settore non potrà appieno svilupparsi se ogni singolo elemento non sarà adeguatamente sviluppato e  sostenuto.

Fondamentalmente, l’IA è basata su algoritmi il cui scopo è quello di risolvere specifici problemi; questa viene spesso valutata confrontandola con l’intelligenza umana, in quanto cerca di riprodurre lo stesso ciclo di elaborazione delle informazioni, basato sulla percezione, cognizione, riconoscimento vocale e processo decisionale.

L’IA oggi sta già diventando una realtà nelle forze armate di tutto il mondo; gli addetti ai lavori si interrogano sulle sue eventuali implicazioni etiche e legali e stanno già trovando possibili soluzioni. Sebbene infatti l’IA detenga enormi potenziali per il settore della Difesa, questa presenta anche numerose sfide, oltre ad implicazioni strategiche non ancora chiare.

Il suo contributo al supporto informativo e decisionale resta tuttavia di fondamentale importanza, poiché l’uomo agisce generalmente in un contesto di asimmetria informativa. Sebbene in molti casi è disponibile un’abbondanza di informazioni, questo non è decisamente il caso delle questioni militari e strategiche: per tale ragione il supporto decisionale ed informativo da parte del sistema di IA è di grande interesse per i decision makers militari e strategici. In termini militari,

l’IA può considerevolmente incrementare la velocità di analisi e di azione sia umana che artificiale, come migliorare notevolmente, ad esempio, i tempi di reazione dei meccanismi di difesa contro sistemi di armamento ad azione rapida, come missili ipersonici o attacchi cibernetici; potrebbe ancora scoprire intrusioni cibernetiche scovando codici maligni evasivi o scovare intrusioni cibernetiche rilevando codici dannosi evasivi o infine aiutare ad identificare tentativi di manipolare i cittadini tramite campagne di disinformazione.

L’IA può migliorare la qualità del processo decisionale delle macchine ma anche degli umani.

L’esplosione dell’IA è in gran parte coincisa con la rapida proliferazione dei sistemi robotici automatizzati, che stanno a pieno titolo cambiando gli interessi strategici.

Mentre tutto ciò sta iniziando a cambiare, la maggior parte dei sistemici robotici sta iniziando ad eseguire il lavoro più rischioso sostituendo gli operatori umani nei campi più pericolosi.

I sistemi robotici autonomi sono, tra l’altro, usati anche per la gestione degli ordigni esplosivi, operazioni di sminamento sia terrestri che subacquee, missioni di salvataggio, supporto logistico ed operazioni di combattimento.

Punto centrale riguarda inoltre il quesito su come il personale militare e sistemi robotici autonomi lavoreranno insieme e come quest’ultimi entreranno attivamente nelle forze armate.

Gli algoritmi umani e dell’IA hanno differenti punti di forza e debolezze; in alcune aree gli esseri umani hanno performance migliori rispetto alle macchine; in alcune invece, queste surclassano l’uomo, ed in altre ancora entrambi si comportano in modo altrettanto corretto o sbagliato.

Una collaborazione tra uomini e macchine si prospetta come la soluzione migliore, attraverso un continuo bilanciamento del controllo sulla tecnologia a seconda del contesto operativo. Presupposto di tutto ciò è l’affidabilità delle macchine nello svolgere il compito e la fiducia che gli operatori ripongono nel loro funzionamento.

Ma, più di ogni altro quesito morale, legale o etico riguardante l’impiego dell’IA, ciò che suscita più attenzione è lo spettro di un sistema di armamento autonomo, ovvero la capacità di uccidere senza un’adeguata supervisione umana. Nessuna nazione ha ancora ammesso la sua intenzione di ricorrere a tali sistemi e vi è un accordo generale della comunità internazionale secondo cui gli esseri umani devono mantenere un livello di controllo significativo sull’operato dei sistemi autonomi. I sistemi citati sono sistemi in cui il controllo dell’operatore umano è detto “in the loop”: il sistema automatico non può iniziare l’attacco senza il preventivo consenso dell’uomo, che quindi è un elemento chiave nel ciclo (loop) rilevazione, analisi, decisione, azione. Lo scenario paventato da molti prevede invece un controllo “out of the loop” da parte dell’uomo, che può quindi rilasciare sul campo di battaglia un sistema d’arma veramente autonomo nella scelta e l’ingaggio di bersagli, mentre il supervisore umano si limita a verificare, durante l’azione o al termine di essa, che il sistema abbia agito secondo parametri operativi (o etici) preimpostati, ovvero rispettando le regole di ingaggio.

L’introduzione di un sistema di IA nelle Forze Armate comporta anche sfide non rientranti nell’ambito tecnico, come l’ammontare di investimenti finanziari necessari per sviluppare ed adottare un sistema di IA competitivo, od ancora come la sfida di una piena introduzione di questa nei comparti statali armati dovuta a difficoltà tecniche, come la gestione degli innumerevoli dati da parte degli algoritmi. Il problema principale riguarda la vulnerabilità dei dati, specialmente nel settore della difesa.

Un’ulteriore criticità, così come esposto precedentemente, riguarda l’affidabilità richiesta a tale sistema, presupposto fondamentale affinché i militari possano farci affidamento. Tali sistemi sono infatti esposti al rischio di manipolazione, incluse possibili intrusioni cyber.

Sebbene non sia ancora chiaro se l’adozione dei prodotti e dei servizi offerti dall’IA avrà effetti minimi, evolutivi o persino rivoluzionari, gli strategic thinkers stanno sempre più affrontando questi aspetti.

Alcuni di questi ritengono che l’IA rivoluzionerà gli interessi strategici e militari, altri sono più scettici al riguardo, definendo l’adozione di tali sistemi in campo militare semplicemente «una continuazione dello sviluppo dell’Era dell’Informazione: sfruttando i dati e la potenza di calcolo per ottenere un vantaggio in un dominio».

Possibili problemi durante una concreta applicazione dell’IA in campo militare possono derivare dalla larga diversità degli alleati membri del Patto Atlantico: l’eterogeneità degli alleati è certamente una fonte primaria della forza NATO ma ciò implica l’esistenza di grandi differenze nelle capacità difensive. Un ingente investimento in ambito NATO nel settore dell’IA potrebbe condurre a problemi di interoperabilità e ad una perdita dell’efficacia militare della NATO in futuro se non fatto in maniera  da assicurare uno standard di sicurezza comune a tutti Paesi dell’Alleanza.