Le big tech dell’AI sempre più spesso collaborano con l’esercito e la Difesa Usa, segno di un nuovo clima mutato nella Silicon Valley. A conferma anche di come l’intelligenza artificiale può essere ago di bilancia nei rapporti geopolitici tra Usa e Cina (come mostrano tra l’altro i recenti dazi).
OpenAI ha annunciato la nuova partnership in ambito militare con Anduril, completando così l’inserimento dell’azienda in ambito difesa iniziato già dai primi mesi del 2024.
Anduril è una società di tecnologie della difesa che produce droni, sistemi radar e missili dotati di intelligenza artificiale.
Obiettivo dell’intesa è supportare le forze armate statunitensi e alleate nel campo di battaglia per affrontare gli attacchi dei droni.
Secondo l’annuncio, OpenAI si adopererà nella costruzione di modelli di intelligenza artificiale che “sintetizzano rapidamente i dati sensibili al tempo, riducono l’onere degli operatori umani e migliorano la consapevolezza della situazione” per abbattere i droni nemici.
Liz Bourgeois, portavoce di OpenAI, ha confermato che il programma sarà focalizzato in particolare sulla difesa del personale e delle strutture statunitensi dalle minacce aeree, aggiungendo che “Questa partnership è coerente con le nostre politiche e non prevede lo sfruttamento della nostra tecnologia per sviluppare sistemi progettati per danneggiare gli altri”.
Così come per OpenAI, anche il portavoce di Anduril non ha fornito informazioni specifiche, ma ha ribadito che la tecnologia aiuterà a individuare e tracciare i droni e a ridurre il tempo che i membri del servizio dedicano a compiti noiosi.
Se, prima dello scorso gennaio, OpenAI aveva vietato l’utilizzo dei suoi modelli per sviluppare armi o, più in generale, per svolgere operazioni militari e di guerra, adesso i paletti sono più leggeri. Il veto alla collaborazione riguarda solo attività che possono danneggiare direttamente persone e proprietà.
Nel corso dei mesi ha, poi, annunciato di aver collaborato con il Pentagono per il software di sicurezza informatica, ma non per le armi, e lo scorso ottobre ha diffuso la notizia sull’impegno della società nel settore della sicurezza nazionale, dichiarando che l’intelligenza artificiale, se ne viene fatto un uso consapevole, può “aiutare a proteggere le persone, a scoraggiare gli avversari e persino a prevenire conflitti futuri”.
Questo allentamento delle restrizioni sulla questione militare è iniziato per consentire all’azienda di stringere collaborazioni con i militari in contesti limitati, ad esempio la sicurezza informatica, la prevenzione dei suicidi e i soccorsi in caso di calamità.
Ora, invece, si sta lavorando ad un inglobamento del settore della sicurezza nazionale a tutto tondo, sempre, come sottolineato da OpenAI, allo scopo di garantire che i benefici dell’intelligenza artificiale possano essere ampiamente condivisi.
Già altre società di venture capital avevano iniziato a dedicarsi alla tecnologia per la difesa dal 2021, tra cui anche la stessa Anduril, in quanto gli introiti da parte del Pentagono erano ingenti.
OpenAI si è solo aggiunta alla lista, ma nel suo caso, c’è stato il passaggio da azienda di ricerca sull’intelligenza artificiale senza scopo di lucro, con la missione, già dalla sua fondazione, di garantire che l’AI venisse sfruttata a beneficio dell’intera umanità, ad azienda che nel post sul blog del 24 ottobre 2024 esplicita il nuovo percorso, anche andando contro la missione originaria, ossia lavorare nella difesa.
L’uscita del post, intitolato “L’approccio di OpenAI all’AI e alla sicurezza nazionale”, è coincisa con la pubblicazione da parte della Casa Bianca del National Security Memorandum sull’intelligenza artificiale, che ordinava al Pentagono e alle altre agenzie di potenziare l’uso dell’AI, in parte per contrastare la concorrenza cinese.
Facendo quasi eco al memorandum del governo americano, OpenAI ha scritto: “Crediamo che una visione democratica dell’IA sia essenziale per sbloccare il suo pieno potenziale e garantire che i suoi benefici siano ampiamente condivisi […] Crediamo che le democrazie debbano continuare ad assumere la guida nello sviluppo dell’AI, guidate da valori come la libertà, l’equità e il rispetto dei diritti umani”.
Diversi sono i modi attraverso cui OpenAI può farlo, per esempio semplificando le attività di traduzione e sintesi e studiando e mitigando i danni ai civili, pur vietando che la sua tecnologia venga utilizzata per “danneggiare le persone, distruggere la proprietà o sviluppare armi”.
Un altro esempio è la collaborazione, annunciata a luglio, tra Anthropic e Palantir.
Ci sarà integrazione dei modelli AI Claude 3 e 3.5 di Anthropic nelle piattaforme di Palantir, nota per le sue soluzioni di analisi dati destinate a scopi difensivi.
Nello specifico:
Parallelamente, Meta ha recentemente cambiato la sua politica riguardo all’uso del suo modello IA open source Llama da parte delle agenzie governative statunitensi. Ora consente applicazioni militari. E’ una svolta significativa rispetto alla precedente posizione dell’azienda, che vietava esplicitamente l’uso delle sue tecnologie per scopi militari o di spionaggio. Meta ha annunciato che i suoi modelli saranno disponibili anche per contractor della difesa come Lockheed Martin e Booz Allen Hamilton.
D’altra parte, l’esercito cinese ha iniziato a utilizzare una versione adattata dell’intelligenza artificiale open-source Llama per scopi militari, sviluppando uno strumento chiamato “ChatBIT”. Questo strumento è progettato per raccogliere ed elaborare dati di intelligence, evidenziando come le tecnologie occidentali possano essere sfruttate anche da potenze rivali.
La situazione solleva interrogativi sulla capacità delle aziende di controllare l’uso delle loro tecnologie in contesti militari, specialmente considerando che la natura open-source rende difficile imporre restrizioni.
In altre parole se la Cina usa sempre più l’IA a fini bellici – persino quella made in Usa – gli Stati Uniti si sentono obbligate a fare lo stesso, collaborando di più con le aziende tech americane. In una forma di escalation militare IA.
Come afferma Heidy Khlaaf, scienziato capo dell’AI presso l’AI Now Institute e ricercatore in materia di sicurezza, autore di un documento con OpenAI nel 2022 sui possibili rischi della sua tecnologia in contesti come quello militare, le nuove politiche puntano a flessibilità e rispetto delle leggi.
Va sottolineato che, a differenza delle altre aziende tecnologiche, come i colossi Amazon, Google e Microsoft, che già da anni lavorano con la difesa con il cloud computing, per OpenAI non si tratta di fornire il cloud e memorizzare e recuperare dati, bensì di smistare i dati sul campo di battaglia, fornire approfondimenti sulle minacce e favorire lo snellimento del processo decisionale in guerra.
Bisogna chiedersi se stiamo vedendo solo passi successivi delle aziende tech verso una maggiore collaborazione con l’esercito e se (o fino a quando) resteranno in piedi gli ultimi paletti etici che ancora impediscono l’uso letale delle loro innovazioni.
Certo le crescenti tensioni geopolitiche con la Cina (in particolare) e il sempre più importante ruolo dell’IA nelle capacità offensive di uno Stato portano a un’accelerazione del fenomeno.