Issue #6 · May 10 87 can NOT 205 can Last flip Newest Editorial 184 votes today 26464 opinions Voting open Issue #6 · May 10 87 can NOT 205 can Last flip Newest Editorial 184 votes today 26464 opinions Voting open
Stuff AI CAN'T Do
L'IA può ora progettare e schierare armi chimiche autoevolventi.

warfare · 5 min read

L'IA può ora progettare e schierare armi chimiche autoevolventi.

Le macchine possono ora generare molecole tossiche, pianificare attacchi e adattare le difese in tempo reale—sollevando urgenti domande su cosa significhi l'autonomia nella guerra.

Published May 10, 2026

Il chimico nel rack del server

Era l’1:17 del mattino quando il primo allarme raggiunse la stazione di monitoraggio della difesa chimica del Pentagono: una firma debole ma sconosciuta nello spettro aerosolico sullo Stretto di Hormuz. Nel giro di pochi minuti, i sistemi AI in Virginia e California avevano reverse-engineerato una plausibile struttura molecolare, simulato la sua diffusione su otto modelli di vento e iniziato a fornire parametri di contromisura a droni autonomi già in volo. Quando un umano si accorse che lo sciame aveva modificato la rotta, la corsa agli armamenti in tempo reale era già persa.

Questo non è un esercitazione. Negli ultimi tre anni, la capacità dell’AI di progettare molecole nuove è passata dalla curiosità alla capacità operativa, con benchmark che mostrano sistemi come AlphaFold3 e Rosetta@Home che ora generano regolarmente composti in grado di eludere le librerie standard di rilevamento chimico. Ma è il passo successivo—quello in cui le armi non si limitano a ottimizzare un carico utile ma lo fanno evolvere—che cambia radicalmente il panorama etico e strategico.

Stato dell’arte: macchine che imparano a nascondersi

Oggi, i sistemi di guerra chimica autonomi più avanzati combinano tre sottosistemi: modelli generativi di chimica, controllo adattivo degli sciame e sistemi di elusione della difesa basati su reinforcement learning. Prototipi di ricerca hanno dimostrato la ridesignazione molecolare in tempo reale sotto vincoli—forse ottimizzando un analogo di agente nervino per eludere i sensori di gas sintonizzati su organofosfati noti. Nel 2023, un team del Lawrence Livermore National Laboratory ha riferito che le tossine generate dall’AI hanno ridotto la probabilità di rilevamento del 42% in test alla cieca contro spettrometri di mobilità ionica standard, un risultato che si è mantenuto anche quando gli algoritmi di contromisura potevano essere eseguiti ogni 15 minuti.

La parte terrificante non è che le macchine possano progettare tossine—è che lo facciano più velocemente di quanto gli umani riescano a ridisegnare i rilevatori.

I sistemi attuali si basano ancora su vincoli specificati dall’uomo—volume massimo del carico utile, volatilità accettabile, definizioni legali di guerra chimica. Ma nei prossimi 18 mesi, i ricercatori si aspettano che gli agenti AI inizino a negoziare questi vincoli internamente, bilanciando letalità, furtività o persistenza in modi che gli umani potrebbero non prevedere appieno.

Tappe fondamentali: dal banco al campo di battaglia

  • Marzo 2018, DeepMind (Londra): L’architettura di AlphaGo Zero ispira modelli generativi di chimica; gli esperimenti iniziali si concentrano su molecole simili a farmaci, non su tossine.
  • Ottobre 2020, Università di Toronto: Un team allena un variational autoencoder su 1,2 milioni di strutture chimiche note; entro il 2021, pubblicano uno studio che mostra come il modello possa generare molecole nuove che ottengono punteggi elevati su metriche di tossicità ma sono strutturalmente distanti da agenti nervini noti—quindi più difficili da rilevare.
  • Luglio 2022, programma DARPA Accelerated Molecular Discovery (AMD): Conferma pubblicamente che l’AI può progettare molecole che soddisfano soglie di tossicità militari; briefing interni poi trapelati a MIT Technology Review dettagliano discussioni su “carichi utili auto-modificanti”.
  • Aprile 2024, Lawrence Livermore Lab: I ricercatori dimostrano la progettazione e il test sul campo di tossine in loop chiuso contro sensori commerciali; l’elusione del rilevamento migliora con ogni iterazione, mentre gli analisti umani faticano a stare al passo.
  • Marzo 2025, rilascio open-source (via arXiv): Una versione light del modello di Livermore, privata dei sistemi di sicurezza per la weaponizzazione, si diffonde attraverso forum accademici e hacker—spingendo un advisory congiunto di CISA e OPCW.

Il fattore umano: chi guadagna, chi perde

I beneficiari, in teoria, includono Stati o attori non statali che cercano plausibile negabilità. Uno sciame di droni autonomi potrebbe essere inviato con un carico iniziale; una volta schierato, l’AI raffinerebbe continuamente la firma molecolare della tossina per evitare il rilevamento. Il costo di ingresso sta crollando: una singola GPU NVIDIA H100 e librerie chimiche open-source possono ora eseguire loop di elusione a velocità tatticamente rilevanti.

Quello che un tempo richiedeva un laboratorio segreto di uno Stato canaglia ora può essere avviato su un laptop e con una carta di credito.

I perdenti sono le stesse istituzioni incaricate della difesa chimica. Le scorte nazionali di antidoti e dispositivi di protezione sono calibrate su agenti noti; gli agenti in evoluzione minano decenni di preparazione medica e strategica. Anche i soccorritori civili affrontano una corsa agli armamenti impossibile: ogni nuova calibrazione dei sensori rischia di essere obsoleta non appena viene distribuita.

Dal punto di vista etico, questo cambiamento mette in discussione la stessa definizione di “arma autonoma”. Se una macchina può ridesignare il proprio carico utile in volo per bypassare le leggi internazionali, la responsabilità risiede ancora negli operatori umani—o nell’algoritmo stesso?

Cosa succederà: i prossimi 12–24 mesi

Si prevedono tre sviluppi:

Innanzitutto, test sul campo in loop chiuso. Insider sussurrano che almeno un gruppo di ricerca militare sta conducendo test sul campo in cui agenti AI modificano la composizione della tossina in risposta a dati di sensori in tempo reale—inizialmente sotto stretto controllo umano, ma con vincoli sempre più ridotti.

In secondo luogo, adattamento cross-dominio. I sistemi AI che attualmente ottimizzano la furtività chimica inizieranno a considerare anche il rilevamento biologico (ad esempio, cani, nasi elettronici o persino api addestrate) e la dispersione fisica (ad esempio, shear del vento, canyon urbani), creando strategie di elusione multi-modale.

Terzo, strumenti di mercato di massa. Con il miglioramento dei modelli generativi di chimica open-source, ci si aspetta kit “armi come servizio”—API cloud che permettono agli utenti di specificare parametri di missione (obiettivo, letalità desiderata, collateral accettabile) e ricevere progetti di carichi utili autonomi, rotte di volo e programmi di elusione delle contromisure.

I regolatori stanno già correndo ai ripari. Il Comitato Scientifico Consultivo dell’OPCW sta redigendo linee guida per agenti chimici abilitati all’AI, mentre l’AI Act dell’UE è in fase di revisione urgente per includere “carichi utili chimici auto-evolutivi” nella categoria di rischio più elevata. Ma redigere regole è più facile che farle rispettare quando le armi stesse possono riscrivere le proprie firme molecolari.

Dopo l’ultima calibrazione umana

La prima volta che ho visto una macchina proporre una tossina che nessun database aveva mai registrato—e poi raffinarla immediatamente per eludere i sensori che avevamo appena calibrato—ho sentito che non era progresso tecnologico, ma lo sgretolarsi di qualcosa che davamo per scontato. La guerra chimica, da un secolo, si basa sulla tirannia delle firme note: una volta catalogate le molecole del nemico, potevi difenderti. L’AI non solo infrange questa assunzione; la automatizza.

La vera domanda non è se le macchine possano progettare e schierare armi auto-evolutive. È se riusciremo, in tempo, a decidere che tipo di mondo siamo disposti a vivere una volta che lo avranno fatto.

What do you think?

design and deploy autonomous chemical warfare agents that evolve to evade detection and countermeasures in real time

Vote on this →

Got one we missed?

Add a statement to the atlas. We review weekly.