A meno di 24 ore dal discorso con cui il consigliere della sicurezza nazionale statunitense, Jake Sullivan, ha delineato le linee guida promosse dagli Stati Uniti nell’utilizzo dell’intelligenza artificiale in ambito militare di fronte agli allievi della National Defense University, è arrivata la conferma del primo effettivo ordine di acquisto di una tecnologia OpenAI da parte delle forze armate statunitensi. Secondo quanto trapelato da un documento di natura riservata datato 30 settembre 2024 e visionato dal sito statunitense The Intercept, è il Comando Africano degli Stati Uniti, conosciuto anche come USAfricom, a ritenere “essenziale” la tecnologia di OpenAI per lo svolgimento delle proprie missioni. La richiesta avanzata è stata approvata dall’Agenzia per i sistemi informatici della Difesa (DISA) per un valore ignoto ma inferiore ai 15 milioni di dollari e permetterà di acquistare servizi di cloud computing direttamente da Microsoft.
Nel concreto, l’accesso alle tecnologie di IA di Microsoft è ritenuto di fondamentale importanza da parte di USAfricom per l’estrazione di valide informazioni da enormi quantità di dati. Soprattutto in un contesto come quello africano, dove le minacce alla sicurezza sono sottoposte a una rapida e continua evoluzione a cui in passato non è stato semplice fornire una risposta altrettanto adeguata. Questi servizi sono ritenuti cruciali per la tempestività di analisi ed elaborazione di dati raccolti dalle agenzie di intelligence e quelli provenienti da intercettazioni di conversazioni audio.
Il potenziale sfruttamento dell’intelligenza artificiale per scopi militari non è di certo una novità, soprattutto da quando nel gennaio scorso OpenAI ha rimosso il divieto di utilizzo della propria tecnologia per scopi “militari o bellici” su pressione dello stesso Pentagono, fortemente interessato a inglobare le nuove tecnologie di IA, definite come “un bene nazionale che deve essere protetto”, nel proprio sistema sofisticato di difesa ma, per la prima volta, saranno direttamente gli operativi delle forze armate a disporre di tali sistemi.
Come ribadito dallo stesso Sullivan, una larga parte della rivalità globale fra Stati Uniti e Cina si gioca proprio sulla capacità e la rapidità di integrare questi nuovi sistemi nelle proprie dotazioni militari creandosi così un vantaggio notevole in termini di capacità effettive. Il riferimento alle “profonde preoccupazioni circa il modo in cui la Repubblica Popolare Cinese continua a utilizzare l’intelligenza artificiale per reprimere la sua popolazione, diffondere disinformazione e minare la sicurezza degli Stati Uniti e dei nostri alleati e partner” non è sembrato casuale. La restante parte del discorso di Sullivan si è focalizzata su come garantire uno sviluppo “sicuro, protetto e responsabile” dell’IA in campo militare. Tre pilastri fondamentali per la nuova strategia presentata dagli Usa. L’obiettivo è quello di sfruttare al meglio le potenzialità dei nuovi sistemi senza arretrare sulle garanzie dello stato di diritto e sulla sicurezza. Il controllo delle armi nucleari, ad esempio, deve rimanere esente da dinamiche legate all’IA. Così come non si possono sfruttare le nuove potenzialità per la profilazione sulla base di etnia o religione o per la stessa identificazione di individui nell’ambito della lotta al terrorismo.
Nel corso dell’ultimo anno ha fatto molto scalpore l’utilizzo di sistemi di intelligenza artificiale da parte delle forze militari israeliane nel drammatico contesto di Gaza. Un’ipotesi confermata da un’inchiesta giornalistica condotta dal sito israeliano +972 Magazine che ne ha accertato l’utilizzo insieme all’esorbitante numero di vittime civili che ne consegue. Sono due e piuttosto simili fra loro i sistemi di IA su cui l’Idf fa affidamento. Il primo, noto come Lavender, ha una percentuale di errore del 10% ed è attivo nella generazione di obiettivi da assassinare rielaborando dati a partire da una lista di sospetti militanti di Hamas indipendentemente dal loro grado di legame, talvolta anche assente, con l’organizzazione. Il secondo, Gospel, definisce invece quelli che sono gli edifici e le strutture da distruggere. In entrambi i casi, prima dell’avvio dell’operazione militare, è richiesta un’approvazione umana di quanto elaborato dalle macchine. Ma, secondo il contenuto dell’inchiesta, nel conflitto in Medioriente la fiducia nell’IA è molto elevata e sta rendendo sempre più marginale il ruolo dell’uomo nella selezione degli obiettivi.