Salta al contenuto

Chi ha le mani sporche di sangue: ChatGPT, Claude o Gemini?

Ecco tutti i dati che forse ti mancano.

Photo by Scott Rodgerson / Unsplash

Dario Amodei (Anthropic) sarebbe il buono che ha detto no, Sam Altman (OpenAI) il cattivo che ha detto sì. Ma le guerre non si lasciano definire da una narrativa pubblica costruita tra due founder che oramai si detestano; il Pentagono certo non si fa comandare da nessuno, tanto meno una big tech. La domanda giusta non è chi abbia la coscienza pulita agli occhi di tutti. La domanda giusta è quanta intelligenza artificiale sia già entrata nella filiera della violenza, e quanto sia ipocrita fingere che esista ancora un confine netto tra modelli “puliti” e modelli “sporchi”. Quel confine, semplicemente, è già saltato, ma entriamo nel merito.

L’Associated Press ha documentato che l’esercito israeliano ha usato modelli commerciali statunitensi, inclusi sistemi di Microsoft e OpenAI, per analizzare intelligence, intercettazioni e flussi informativi nella guerra a Gaza e in Libano; l’uso della tecnologia commerciale di Microsoft da parte dell’apparato militare israeliano, secondo i documenti visti da AP, è cresciuto quasi di 200 volte dopo il 7 ottobre. E quando Israele ha preparato l’operazione contro l’Iran del 2025, AP ha ricostruito che AI e intelligence umana sono state usate insieme per setacciare grandi masse di dati e selezionare obiettivi, prima ancora dei raid e dei droni introdotti clandestinamente nel paese. L’IA quindi non è il futuro della guerra, piuttosto il suo presente amministrativo, cognitivo e operativo.

Lo stesso vale per il fronte ucraino. Reuters ha riportato che l’Ucraina ha accumulato oltre 2 milioni di ore di video di battaglia dai droni e vuole trasformare quel patrimonio in carburante per l’addestramento di sistemi AI; a gennaio il ministro Mykhailo Fedorov ha annunciato che parte di quei dati verrà condivisa con gli alleati per addestrare modelli, e ha spiegato che la piattaforma “Dataroom”, sviluppata con Palantir, serve a testare algoritmi per droni intercettori contro le minacce aeree russe. Sul campo, sempre Reuters ha raccolto la testimonianza di soldati ucraini secondo cui alcuni attacchi a lunga distanza sarebbero ormai impossibili senza sistemi di guida assistiti dall’IA; e AP ha documentato che anche la Russia sta impiegando droni con capacità anti-jamming e componenti di calcolo AI, in parte derivati dall’ecosistema iraniano.

Gemini poi — che è completamente fuori dalla reputation war pubblica tra Amodei e Altman — è stato il primo modello frontier distribuito su GenAI.mil, la piattaforma del Pentagono destinata a circa 3 milioni di dipendenti civili e militari; secondo Bloomberg, già a marzo il sistema aveva visto 1,2 milioni di utenti, 40 milioni di prompt e oltre 4 milioni di documenti caricati. A febbraio OpenAI ha annunciato che anche ChatGPT sarebbe stato portato sulla stessa piattaforma, dopo che il Dipartimento aveva comunicato di aver superato il milione di utenti unici in soli due mesi. Nel 2025 OpenAI aveva inoltre ottenuto un contratto da 200 milioni di dollari dal Dipartimento della Difesa per prototipi AI destinati sia a funzioni di back office sia a operazioni di combattimento.

Anthropic, però, non è rimasta fuori dalla stanza. Anzi: in alcuni ambienti sensibili ci è entrata prima di altri. Reuters ha scritto che, tra i grandi laboratori, Anthropic era l’unica ad aver già abilitato un uso classificato, seppure mediato, dei propri modelli; la società ha poi lanciato Claude Gov, una famiglia di modelli costruiti per clienti della sicurezza nazionale e già dispiegati “ai massimi livelli” della sicurezza nazionale americana. Prima ancora, aveva stretto accordi con Palantir e AWS per portare Claude negli ambienti IL6 della difesa e dell’intelligence, e poi con il programma FedStart di Palantir per accelerarne la distribuzione nel settore pubblico. Insomma Claude e la guerra non sembrano certo due sconosciuti, e non è un gesto pubblico come la negazione della rimozione dei limiti sull'uso di armi autonome da parte dell'IA e la sorveglianza civile di massa a cancellare questo. Il problema sorge quando le persone ritraggono Anthropic come la società che avrebbe rinunciato alla violenza.

Il vero scontro con il Pentagono non era tra chi voleva usare l’IA in guerra e chi no. Era tra due modi diversi di gestire la partnership. Anthropic voleva mantenere due carve-out espliciti: niente sorveglianza domestica di massa e niente armi completamente autonome. Il Pentagono ha risposto rivendicando il diritto di usare i modelli per “all lawful purposes” e rifiutando l’idea che un vendor privato potesse porre limiti ex ante alla catena di comando. OpenAI, pubblicamente, ha sostenuto di condividere le stesse linee rosse, ma le ha fatte passare sotto una struttura diversa: un accordo che lascia in piedi la formula degli usi leciti, ma la incardina in clausole contrattuali, deployment cloud, safety stack proprietario ed esperti OpenAI nel loop.

Non è una differenza morale bensì di governance perché Anthropic chiedeva un veto di principio inamovibile mentre OpenAI ha negoziato un perimetro di controllo prettamente contrattuale. Per il Pentagono, evidentemente, la seconda formula era accettabile e la prima no. Mi sono chiesto perché e unendo tutte le dichiarazioni e tutto il materiale che ho potuto leggere la lettura più plausibile sembra essere che in situazioni di emergenza (terza guerra mondiale, terrorismo, rivoluzioni, ecc.) il Dipartimento della Difesa USA non può permettersi di non poter impugnare "soluzioni di emergenza".

In tutto questo quindi il Pentagono ha designato Anthropic come “supply chain risk”, un duro colpo per Amodei che si aggiunge alla perdita di un contratto da 200 milioni di dollari. Alcuni clienti di Anthropic, tra cui Lockheed Martin, hanno già detto che guarderanno ad altri fornitori; Amodei, dalla sua, insiste sul fatto che la “stragrande maggioranza” dei clienti non "soffrirà" di questa designazione. Non sappiamo se la società davvero rischia di crollare (ha dichiarato che questa designazione le farà perdere miliardi di dollari e forse anche la corsa all'IA) ma sappiamo che il danno commerciale e reputazionale è abbastanza serio da obbligarla a difendersi sia in tribunale che in pubblico.

Intanto la Cina non sta aspettando il dibattito morale della Silicon Valley. La dottrina del PLA parla da anni di “intelligentized warfare”: guerra resa più veloce, più densa di sensori, più guidata da sistemi di supporto decisionale, simulazioni, riconoscimento di bersagli, software ISR, guerra cognitiva ed elettronica. La Cina non si fa problemi su nulla: privacy, escalation, crimini di guerra. Brookings ha osservato che almeno cinque delle principali applicazioni militari cinesi dell’IA toccano già spazio, sorveglianza, cyber, software cognitivi e veicoli autonomi; FPRI nota che Pechino usa l’IA anche come surrogato dell’esperienza di combattimento che le manca, affidandosi a wargaming, modellazione predittiva e pianificazione algoritmica; Reuters ha riportato inoltre che Taiwan accusa la Cina di ricorrere ad attacchi cyber guidati dall’IA, campagne di disinformazione e deepfake nella sua pressione ibrida sull’isola.

La guerra con l'aiuto dell'IA assomiglia molto di più a una catena industriale invisibile: raccolta dati, classificazione, interpretazione, prioritizzazione, riconoscimento di pattern, pianificazione, guida autonoma in ambienti disturbati, swarming, cyberdifesa, deception. Un rapporto RAND citato dal MIT Security Studies Program suggerisce che l’IA tenderà a pesare soprattutto su quattro grandi aspetti: quantità contro qualità, nascondere contro trovare, comando centralizzato contro mission command, cyber offesa contro cyber difesa. In altre parole, l’IA renderà la guerra più scalabile, più economica, più continua e più opaca. Non necessariamente più automatica in ogni passaggio. Ma certamente più dipendente da sistemi che comprimono il giudizio umano in tempi sempre più stretti.

Una domanda: quand'è che abbiamo deciso che un modello linguistico o un sistema di IA agentica non fanno parte dell'arma solo perché non premono il grilletto? L'IA sarà ovunque, in tutti i Dipartimenti di Difesa nazionali, perché sennò la utilizzeranno gli avversari. Il problema in sé è sempre il solito, vecchio quanto l'umanità, ed è l'esistenza stessa della guerra.

L'IA aiuta gli stati a vedere prima, scegliere prima, colpire prima; e continuerà ad avere le mani sporche, sempre più sporche, ma senza ego o identità, diventando così quasi uno specchio di chi siamo noi oggi.

Commenti

Più recenti