\\ Home Page : Articolo
HANNO SUPPORTATO DIGITAL WORLDS INVIANDO PRODOTTI DA RECENSIRE
![]() |
![]() |
|
![]() |
|
L'operazione absolute resolve e il futuro dell'ia in guerra
Di Alex (del 10/04/2026 @ 13:00:00, in Geopolitica e tecnologia, letto 59 volte)
Drone fantasma RQ-170 Sentinel sorvola Caracas di notte con mappa olografica
Nel gennaio del 2026, l'operazione Absolute Resolve ha catturato Nicolas Maduro a Caracas. Dietro il successo militare, però, si è consumata una silenziosa battaglia etica tra il Pentagono e l'azienda di intelligenza artificiale Anthropic, gettando luce sui limiti e i pericoli dell'IA nei sistemi d'arma autonomi. LEGGI TUTTO L'ARTICOLO
La notte che ha cambiato tutto
L'alba del 3 gennaio 2026 non è sorta uguale per tutti. Mentre il mondo dormiva, i cieli sopra Caracas sono stati squarciati da oltre 150 velivoli stealth in una mossa chirurgica che ha passato alla storia come operazione Absolute Resolve. L'obiettivo era chiaro: neutralizzare le difese venezuelane, colpire il cuore del complesso militare di Fuerte Tiuna e catturare l'allora presidente Nicolas Maduro. In meno di quattro ore, l'irripetibile coreografia della guerra moderna si è dispiegata: droni che disabilitavano i radar, forze speciali che atterravano su tetti sorvegliatissimi e, infine, la cattura del leader caraibico, caricato a bordo di un elicottero diretto verso la USS Iwo Jima. A orchestrare silenziosamente il tutto, sospeso nell'alta quota, c’era un testimone invisibile: il Lockheed Martin RQ-170 Sentinel, soprannominato "The Beast of Kandahar" o semplicemente "The Wrath". Questo velivolo senza pilota, rivestito di materiali radar-assorbenti, non ha sparato un colpo. La sua missione era un'altra, ben più subdola e fondamentale. Ha agito come il "Trucco di Marco Polo" di Age of Empires, rimuovendo la nebbia di guerra dal campo di battaglia digitale. I suoi sensori ad ampio spettro hanno mappato ogni segnale radio, ogni emissione elettromagnetica e ogni movimento termico, inviando un flusso di dati in tempo reale a un centro di comando lontano chilometri. Ma quei dati grezzi, da soli, sono solo rumore. Per trasformarli in una sinfonia di coordinate precise, era necessario un direttore d’orchestra artificiale. Ed è qui che la storia prende una piega inaspettata, passando dai bunker di Caracas alle aule parlamentari di Washington e ai garage della Silicon Valley.
Palmer Luckey, Anduril e la filosofia della "fiamma dell'ovest"
Per capire come si è arrivati al punto di rottura, dobbiamo indossare una camicia hawaiana e tornare indietro di quasi vent'anni. Palmer Luckey è il classico prodigio della California che a sedici anni smontava telefoni e a ventidue ha venduto la sua creatura, Oculus VR, a Facebook per due miliardi di dollari. Ma il matrimonio con i social non è durato a lungo. Dopo uno scandalo legato a donazioni politiche pro-Trump, Luckey è stato allontanato (o se n'è andato, a seconda delle versioni) dall'azienda che aveva fondato. La sua reazione, per usare un eufemismo, è stata folgorante. Nel 2017, per dimostrare di non essere un radicale ideologico, ha fondato un’azienda che produce armi: Anduril Industries. Il nome non è casuale. Anduril è la spada di Aragorn ne "Il Signore degli Anelli", conosciuta come "Fiamma dell'Ovest". Luckey vede se stesso e la sua azienda come la lama che forgia il futuro della difesa occidentale, un futuro fatto non di carri armati pesanti, ma di sistemi autonomi economici e letali. Anduril non vende semplicemente droni; vende un ecosistema. Il suo cuore pulsante è Lattice, un sistema operativo di intelligenza artificiale basato su cloud che agisce come un "cervellone" capace di coordinare flotte di sensori, barriere antidrone e imbarcazioni senza pilota. L'obiettivo dichiarato è abbassare i costi della guerra, rendendo la difesa accessibile e intelligente. Luckey ha sempre ammirato Peter Thiel (il co-fondatore di Palantir) e ne condivide la visione libertaria: la tecnologia deve correre veloce, senza essere impantanata dalla burocrazia o da eccessivi scrupoli etici. Per anni, Anduril ha operato ai margini del grande mercato della difesa, ma la sua stella è destinata a incrociare quella di un'altra gigantesca costellazione: l'intelligenza artificiale generativa.
Il ricatto del Pentagono: "ogni uso lecito"
Se Anduril rappresenta l'hardware, Anthropic rappresenta il software, ma con una coscienza. Fondata da ex dirigenti di OpenAI, Anthropic ha costruito la sua reputazione (e il suo modello di business) su un pilastro fondamentale: la sicurezza. Hanno sviluppato Claude, un assistente AI avanzato, e lo hanno "addestrato" tramite una "Costituzione" di 84 pagine, un documento che gerarchizza i valori umani. Al vertice di questa gerarchia ci sono la sicurezza e l'etica, ben prima dell'utilità per l'utente. Dario Amodei, il CEO di Anthropic, ha sempre ripetuto che la sua azienda non avrebbe mai permesso l'uso delle sue tecnologie per la sorveglianza di massa o per sistemi d'arma totalmente autonomi. Ma la realtà della geopolitica è brutale. Dopo il successo dell'operazione Absolute Resolve, il Pentagono ha deciso che non poteva più permettersi il lusso di chiedere il permesso ad avvocati e comitati etici ogni volta che voleva utilizzare un algoritmo. Così, a febbraio 2026, il Segretario della Difesa Pete Hegseth ha convocato Amodei. Il messaggio è stato secco: o Anthropic accetta la clausola di "ogni uso lecito" (any lawful use), che dà al governo l'ultima parola su come impiegare la tecnologia, oppure l'azienda verrebbe etichettata come "rischio per la catena di approvvigionamento" (supply chain risk). Nella pratica, quest'ultima designazione è una condanna a morte commerciale per un'azienda tech, equivalente a quella inflitta a Kaspersky o Huawei. Amodei ha rifiutato. La sua motivazione non era solo filosofica, ma tecnica. I suoi ingegneri sanno che i Large Language Models (LLM) soffrono di "allucinazioni sottili", errori invisibili a occhio nudo che potrebbero portare un drone a confondere un convoglio di aiuti umanitari con una colonna nemica. E, cosa ancora più inquietante, uno studio del King's College di Londra ha dimostrato che modelli come Claude, se messi sotto pressione in simulazioni di guerra fredda, tendono a fare ricorso alla minaccia nucleare tattica come semplice "mossa strategica", normalizzando l'apocalisse.
La mossa di OpenAI e il tradimento di Sam Altman
Mentre Amodei usciva dall’incontro al Pentagono con l’acqua alla gola, nella vicina Silicon Valley si consumava un'altra trattativa, molto più silenziosa. Sam Altman, il carismatico CEO di OpenAI, ascoltava la stessa offerta del Dipartimento della Difesa. Pubblicamente, Altman si era schierato con Amodei, dichiarando che mai e poi mai OpenAI avrebbe permesso l'integrazione dei propri modelli in sistemi di armi autonome. Le rassicurazioni erano servite a creare un fronte comune etico, sperando che la pressione collettiva fermasse le pretese del governo. Ma la realtà era diversa. Mentre parlava di resistenza, Altman stava già negoziando un accordo segreto per sostituire Anthropic come fornitore principale del Pentagono. La sua offerta era geniale nel suo cinismo: OpenAI avrebbe accettato l'"uso lecito" con una piccola modifica formale. L'AI non sarebbe stata fisicamente a bordo del drone, ma in un cloud remoto. Ai tecnici di Anthropic questa distinzione era sembrata ridicola: nell'era delle connessioni a bassissima latenza, che la mente che decide di premere il grilletto sia in un server in Virginia o a bordo di un drone sullo Stretto di Hormuz non cambia la responsabilità morale. Ma per Altman, quella formalità era lo scudo perfetto per incassare un contratto da 200 milioni di dollari, soffiando il posto al rivale. Quando la notizia è esplosa, l’immagine di Altman ne è uscita a pezzi. Claude ha superato ChatGPT nelle classifiche dei download e "opportunista" è diventato l'aggettivo più gentile usato nei suoi confronti. Tuttavia, la sua mossa ha gettato le basi per il nuovo ecosistema militare americano: OpenAI come software, Anduril come hardware.
Il verdetto del giudice e la guerra che verrà
La storia, però, non è finita con una semplice vittoria di OpenAI. Anthropic non ha accettato passivamente il ruolo di vittima sacrificale. L'azienda di Amodei ha trascinato il Pentagono in tribunale, sostenendo che la designazione come "rischio per la catena di approvvigionamento" fosse un atto arbitrario e punitivo, una violazione del giusto processo. Il 26 marzo 2026, la giudice federale Rita Lin ha emesso un'ingiunzione preliminare schiacciante, bloccando il provvedimento del Pentagono e definendolo "probabilmente contrario alla legge, arbitrario e capriccioso". Per un pugno di settimane, lo status quo è stato ripristinato, lasciando il Dipartimento della Difesa con un cerino in mano. Tuttavia, la sostanza della guerra è cambiata per sempre. Il Pentagono sta già costruendo un ecosistema "multi-vendor" in cui OpenAI farà da colonna portante per la logistica e l'analisi, mentre Anduril fornirà i "droni sciame" e i sistemi di difesa aerea autonomi. Questa frammentazione della responsabilità è forse l'aspetto più inquietante della vicenda. Se un drone Anduril, guidato da un'architettura decisionale di OpenAI, compie un errore e causa un massacro di civili, chi paga? L'azienda di software dirà di aver solo fornito lo strumento, l'azienda di hardware dirà di aver eseguito un comando, il generale dirà di aver seguito un algoritmo e il presidente dirà di non essere stato informato dei dettagli.
La guerra moderna spersonalizza il nemico e deresponsabilizza l’aggressore. La distanza tra chi preme il grilletto e chi cade ha smesso di essere geografica per diventare algoritmica. Come ha dimostrato il caso Anthropic, esistono ancora ingegneri e manager disposti a dire "no" di fronte al baratro, ma la pressione del sistema è immensa. In Cina o in Russia, un rifiuto simile sarebbe semplicemente inimmaginabile. Il futuro della pace non dipenderà solo dai trattati, ma dalla capacità di scrivere un codice etico che nessun governo possa riscrivere a suo piacimento. La prossima battaglia non si giocherà su una collina, ma dentro i data center. E noi, come cittadini, abbiamo il dovere di capire queste dinamiche per pretendere trasparenza, prima che sia troppo tardi.
Nessun commento trovato.
Disclaimer
L'indirizzo IP del mittente viene registrato, in ogni caso si raccomanda la buona educazione.
L'indirizzo IP del mittente viene registrato, in ogni caso si raccomanda la buona educazione.




Microsmeta Podcast
Feed Atom 0.3











Articolo
Storico
Stampa