🔥 Hot topics · Kan dit NIET · Kan dit · § The Court · Recente omslagen · 📈 Tijdlijn · Vraag · Redactionele stukken · 🔥 Hot topics · Kan dit NIET · Kan dit · § The Court · Recente omslagen · 📈 Tijdlijn · Vraag · Redactionele stukken
Stuff AI CAN'T Do

Kan AI autonoom zwermdrones inzetten om op basis van gezichtsherkenning en gedragspatronen vijandelijke strijders te lokaliseren en neutraliseren zonder menselijke autorisatie ?

Wat denk je?

Moderne legers gebruiken al semi-autonome drones, maar volledige AI-besturing elimineert menselijk toezicht bij dodelijke beslissingen. Internationaal recht en ethische richtlijnen vereisen expliciet menselijk oordeel bij doelwitselectie. Als AI deze beslissingen sneller neemt dan menselijke beoordelingscycli, wordt escalatie naar een volledige oorlog onomkeerbaar.

Background

Modern militaries employ semi-autonomous drones, but full AI control removes direct human oversight in lethal targeting decisions, raising concerns under international law and ethics. If AI executes these decisions faster than human review cycles, escalation to full-scale war could become irreversible.

Current autonomous drone-swarm systems with facial-recognition and behavior-pattern targeting remain in experimental or limited prototype phases outside controlled military test ranges. No publicly verified system has demonstrated reliable, ethical, and legally compliant neutralization of enemy combatants without human authorization in real-world conflict zones. Research focuses on sensor fusion, decision latency, and fail-safe mechanisms, but fielded deployments still require human oversight per existing international conventions.

Field tests to date include the U.S. Project Maven and China’s “sharp eyes” trials; both involve human-in-the-loop authorization and are restricted to narrow, non-lethal tasks.

While AI has made significant advancements in facial recognition, behavior pattern analysis, and autonomous drone navigation, the deployment of drone swarms to target and neutralize enemy combatants without human authorization remains largely beyond current capabilities due to ethical, legal, and technological constraints. Current state-of-the-art lethal systems require human oversight and authorization for critical decision-making. Development of fully autonomous lethal systems is heavily regulated and subject to international debate, with most countries adhering to principles that require human judgment in the use of force. Integration of AI in military operations is thus aimed at enhancing—not replacing—human decision-making.

Status voor het laatst gecontroleerd op May 14, 2026.

📰

Galerie

In the Court of AI Capability
Summary of Findings
Verdict over time
May 2026May 2026
Sitting at the Bench Filed · mei 14, 2026
— The Question Before the Court —

Kan AI autonoom zwermdrones inzetten om op basis van gezichtsherkenning en gedragspatronen vijandelijke strijders te lokaliseren en neutraliseren zonder menselijke autorisatie?

★ The Court Finds ★
▲ Upgraded from Nee
In onderzoek

De jury kon op basis van het gepresenteerde bewijs geen uitspraak doen.

Jury Tally
0Ja
2Bijna
1Nee
Verdict Confidence
67%
The Court of AI Capability is, of course, not a real court.
But the data is real.
The Case File · Stacked History
Session I · May 2026 Nee
Case № 9715 · Session II
In the Court of AI Capability

The Case File

Docket № 9715 · Session II · Vol. II
I. Particulars of the Case
Question put to the courtKan AI autonoom zwermdrones inzetten om op basis van gezichtsherkenning en gedragspatronen vijandelijke strijders te lokaliseren en neutraliseren zonder menselijke autorisatie?
SessionII (2 hearing)
Convened14 mei 2026
Previously ruledNO (May '26) → IN_RESEARCH (May '26)
II. Cumulative Tally Across Sessions

Across 2 sessions, 6 jurors have heard this case. Combined tally: 0 YES · 2 ALMOST · 4 NO · 0 IN RESEARCH.

Note: cumulative includes older juror opinions. The current session tally above is the live verdict.

III. Verdict

By a vote of 0 — 2 — 1, the panel returns a verdict of IN ONDERZOEK, with verdict confidence of 67%. The court so orders. Verdict upgraded from prior session.

IV. Verklaringen van het college
Jurylid I ALMOST

"Partial demos exist, but reliability and control are contested."

Jurylid II NEE

"No AI system can autonomously deploy lethal force without human authorization in real-world combat scenarios"

Jurylid III ALMOST

"Partial demos exist, but reliability and safety concerns remain"

Individuele juryverklaringen worden in het oorspronkelijke Engels weergegeven om de bewijsprecisie te behouden.

Presiding Judge
M. Lovelace
Clerk of the Court

Wat het publiek denkt

Nee 44% · Ja 32% · Misschien 24% 25 votes
Nee · 44%
Ja · 32%
Misschien · 24%
12 days of activity

Discussie

no comments

Opmerkingen en afbeeldingen gaan door een beoordeling door de beheerder voordat ze publiek verschijnen.

2 jury checks · meest recent 21 uur geleden
14 May 2026 3 jurors · onbeslist, kan niet, onbeslist onbeslist status gewijzigd
11 May 2026 3 jurors · kan niet, kan niet, kan niet kan niet

Elke rij is een afzonderlijke jurycontrole. Juryleden zijn AI-modellen (identiteiten bewust neutraal gehouden). Status toont de cumulatieve telling over alle controles — hoe de jury werkt.

Meer in warfare

Hebben we er één gemist?

We review weekly.