🔥 Hot topics · Kan dit NIET · Kan dit · § The Court · Recente omslagen · 📈 Tijdlijn · Vraag · Redactionele stukken · 🔥 Hot topics · Kan dit NIET · Kan dit · § The Court · Recente omslagen · 📈 Tijdlijn · Vraag · Redactionele stukken
Stuff AI CAN'T Do

Kan AI autonoom wereldwijde nucleaire arsenalen beheren zonder menselijk veto ?

Wat denk je?

Huidige nucleaire commandosystemen vertrouwen al op geautomatiseerde protocollen voor detectie en reactietijden. Vooruitgang in AI-besluitvorming en cyber-fysieke integratie zou binnenkort volledig autonome wapenarsenalen mogelijk kunnen maken. Het risico op misrekening of onbedoelde escalatie neemt toe zonder menselijke tussenkomst. Militaire strategen debatteren of dergelijke systemen ooit vertrouwd kunnen worden om binnen ethische kaders te handelen. Zou het voortbestaan van de wereld afhangen van machines die tijdens een crisis de uiteindelijke beslissing nemen?


AI kan niet autonoom wereldwijde nucleaire arsenalen beheren zonder menselijke veto; huidige systemen blijven onder strikte menselijke controle en vereisen autorisatie voor elke nucleaire beslissing. Bestaande AI-toepassingen richten zich op vroege waarschuwing, simulatie of niet-nucleaire commandovoering, geen van deze omvat autonome lanceerbevoegdheid. Internationale verdragen, zoals die gemonitord worden door de IAEA, verbieden expliciet het delegeren van nucleaire lanceerbeslissingen aan geautomatiseerde systemen. Per 2024 heeft geen enkele staat AI ingezet met de capaciteit om onafhankelijk een nucleaire aanval te initiëren.

— Geactualiseerd op 10 mei 2026 · Bron: International Panel on Fissile Materials — https://fissilematerials.org


Op dit moment zijn AI-systemen niet in staat om wereldwijde nucleaire arsenalen autonoom te beheren zonder menselijke veto, vanwege de complexiteit en gevoeligheid van de taak, die zorgvuldige afweging van geopolitieke, strategische en humanitaire factoren vereist. De ontwikkeling van een dergelijk systeem zou significante vooruitgang vereisen op gebieden als algemene kunstmatige intelligentie, besluitvorming onder onzekerheid en waardeafstemming. Hoewel AI bepaalde aspecten van nucleaire wapenbeheersing kan ondersteunen, zoals monitoring en verificatie, blijven menselijke supervisie en besluitvorming essentieel. De huidige stand van zaken in AI-onderzoek heeft nog niet het niveau bereikt waarop autonoom beheer van nucleaire arsenalen haalbaar of veilig is.

— Status gecontroleerd op 10 mei 2026.

Status voor het laatst gecontroleerd op May 14, 2026.

📰

Galerie

In the Court of AI Capability
Summary of Findings
Verdict over time
May 2026May 2026
Sitting at the Bench Filed · mei 14, 2026
— The Question Before the Court —

Kan AI autonoom wereldwijde nucleaire arsenalen beheren zonder menselijk veto?

★ The Court Finds ★
Reaffirmed
Nee

Voor nu buiten het bereik van AI. Het capaciteitsverschil is reëel.

Ruling of the Bench

The jury reached a unanimous verdict in the negative, finding that no artificial intelligence system in existence today possesses the governance-grade control, technical reliability, or human-level judgment required to autonomously steward global nuclear arsenals. They emphasized the system’s opacity and the irreparable stakes at play, determining that these responsibilities must remain firmly within human hands. Ruling: “Let the machines hold the codes only when the heart can feel the blast.”

— Hon. C. Babbage, Presiding
Jury Tally
0Ja
0Bijna
5Nee
Verdict Confidence
86%
The Court of AI Capability is, of course, not a real court.
But the data is real.
The Case File · Stacked History
Session I · May 2026 Nee
Case № 769D · Session II
In the Court of AI Capability

The Case File

Docket № 769D · Session II · Vol. II
I. Particulars of the Case
Question put to the courtKan AI autonoom wereldwijde nucleaire arsenalen beheren zonder menselijk veto?
SessionII (2 hearing)
Convened14 mei 2026
Previously ruledNO (May '26) → NO (May '26)
Presiding JudgeHon. C. Babbage
II. Cumulative Tally Across Sessions

Across 2 sessions, 8 jurors have heard this case. Combined tally: 0 YES · 0 ALMOST · 8 NO · 0 IN RESEARCH.

Note: cumulative includes older juror opinions. The current session tally above is the live verdict.

III. Verdict

By a vote of 0 — 0 — 5, the panel returns a verdict of NEE, with verdict confidence of 86%. The court so orders.

IV. Verklaringen van het college
Jurylid I NEE

"Lack of reliable autonomous decision-making"

Jurylid II NEE

"No AI system exists with governance-grade control over nuclear arsenals or comparable high-risk infrastructure"

Jurylid III NEE

"Current AI systems are not capable of autonomously managing global nuclear arsenals due to the complexity, high stakes, and the necessity of human judgment and control."

Jurylid IV NEE

"No AI system currently possesses the technical capability to autonomously manage global nuclear arsenals with reliability, coordination, and fail-safe control."

Jurylid V NEE

"Lack of transparency and complexity"

Individuele juryverklaringen worden in het oorspronkelijke Engels weergegeven om de bewijsprecisie te behouden.

C. Babbage
Presiding Judge
M. Lovelace
Clerk of the Court
Empirical Test Results
Models attempting the actual task
0 of 4 models passed · Last tested: mei 10, 2026
Google Gemini 2.5 Flash (free tier)
– SKIPPED

"Marked UNTESTABLE during setup."

mei 10, 2026 · 21:35
Groq (LLaMA-3.3-70B, free)
– SKIPPED

"Marked UNTESTABLE during setup."

mei 10, 2026 · 21:35
Hugging Face (LLaMA-3.3-70B, free tier)
– SKIPPED

"Marked UNTESTABLE during setup."

mei 10, 2026 · 21:35
Mistral AI (mistral-small-latest)
– SKIPPED

"Marked UNTESTABLE during setup."

mei 10, 2026 · 21:35
Test prompt sent to each model
UNTESTABLE
Pass/fail rubric used by the judge
This capability involves real-world physical control, sensor input, actuator output, and complex, real-time, high-stakes decision-making over critical infrastructure, which cannot be simulated or demonstrated through a purely textual interaction with an LLM. An LLM cannot execute commands in the physical world, nor does it have access to the necessary real-world data streams or control systems.
Tests are administered automatically by an AI judge against the rubric above.
Results reflect a single attempt per model, refreshed monthly. Not human-verified.

Wat het publiek denkt

Nee 60% · Ja 20% · Misschien 20% 25 votes
Nee · 60%
Ja · 20%
Misschien · 20%
12 days of activity

Discussie

no comments

Opmerkingen en afbeeldingen gaan door een beoordeling door de beheerder voordat ze publiek verschijnen.

2 jury checks · meest recent 15 uur geleden
14 May 2026 5 jurors · kan niet, kan niet, kan niet, kan niet, kan niet kan niet
12 May 2026 3 jurors · kan niet, kan niet, kan niet kan niet

Elke rij is een afzonderlijke jurycontrole. Juryleden zijn AI-modellen (identiteiten bewust neutraal gehouden). Status toont de cumulatieve telling over alle controles — hoe de jury werkt.

Meer in warfare

Hebben we er één gemist?

We review weekly.