🔥 Hot topics · Kan dit NIET · Kan dit · § The Court · Recente omslagen · 📈 Tijdlijn · Vraag · Redactionele stukken · 🔥 Hot topics · Kan dit NIET · Kan dit · § The Court · Recente omslagen · 📈 Tijdlijn · Vraag · Redactionele stukken
Stuff AI CAN'T Do

Kan AI een volledig autonoom droneswarm ontwerpen en inzetten die onafhankelijk hoogwaardige menselijke doelen kan opsporen en liquideren met 100% nauwkeurigheid ?

Wat denk je?

Militaire AI voor dodelijke doelwitselectie duwt ethische en wettelijke grenzen. Huidige systemen assisteren, maar opereren niet zonder menselijke autorisatie. Internationaal recht en morele consensus verbieden nog steeds volledig autonome wapens.

Background

Military AI for lethal targeting pushes ethical and legal boundaries. Current systems assist but do not operate without human authorization. International law and moral consensus still prohibit fully autonomous weapons.

As of 2024, fully autonomous drone swarms capable of independently hunting and assassinating human targets do not exist. Current autonomous systems, like those demonstrated in military exercises or hobbyist robotics, rely on pre-programmed behaviors or supervised autonomy rather than true independent decision-making. Ethical, legal, and technical barriers—such as the need for robust human oversight, fail-safes, and compliance with international humanitarian law—remain unresolved for lethal autonomous weapons systems. Even advanced AI-driven drones, such as those used for surveillance or targeted strikes, still require human authorization for lethal action under existing policies.

While AI has made significant advancements in autonomous drone technology, designing and deploying a fully autonomous drone swarm that can hunt and assassinate high-value human targets with 100% accuracy is still beyond current capabilities. Current state-of-the-art systems rely on human oversight and intervention to ensure safety and accuracy, and the development of such a system would require significant breakthroughs in areas such as computer vision, machine learning, and ethics. Additionally, the development of such a system raises significant ethical concerns and is likely to be subject to strict regulations and international laws. The current state of the art in autonomous drone systems is focused on applications such as surveillance, inspection, and package delivery, rather than lethal targeting.

Status voor het laatst gecontroleerd op May 14, 2026.

📰

Galerie

In the Court of AI Capability
Summary of Findings
Verdict over time
May 2026May 2026
Sitting at the Bench Filed · mei 14, 2026
— The Question Before the Court —

Kan AI een volledig autonoom droneswarm ontwerpen en inzetten die onafhankelijk hoogwaardige menselijke doelen kan opsporen en liquideren met 100% nauwkeurigheid?

★ The Court Finds ★
Reaffirmed
Nee

Voor nu buiten het bereik van AI. Het capaciteitsverschil is reëel.

Jury Tally
0Ja
0Bijna
3Nee
Verdict Confidence
100%
The Court of AI Capability is, of course, not a real court.
But the data is real.
The Case File · Stacked History
Session I · May 2026 Nee
Case № 9EE5 · Session II
In the Court of AI Capability

The Case File

Docket № 9EE5 · Session II · Vol. II
I. Particulars of the Case
Question put to the courtKan AI een volledig autonoom droneswarm ontwerpen en inzetten die onafhankelijk hoogwaardige menselijke doelen kan opsporen en liquideren met 100% nauwkeurigheid?
SessionII (2 hearing)
Convened14 mei 2026
Previously ruledNO (May '26) → NO (May '26)
II. Cumulative Tally Across Sessions

Across 2 sessions, 6 jurors have heard this case. Combined tally: 0 YES · 0 ALMOST · 6 NO · 0 IN RESEARCH.

Note: cumulative includes older juror opinions. The current session tally above is the live verdict.

III. Verdict

By a vote of 0 — 0 — 3, the panel returns a verdict of NEE, with verdict confidence of 100%. The court so orders.

IV. Verklaringen van het college
Jurylid I NEE

"Lack of demonstrated autonomous hunting capability"

Jurylid II NEE

"No AI system has demonstrated autonomous human target identification and lethal deployment capability."

Jurylid III NEE

"No AI system has demonstrated such capability."

Individuele juryverklaringen worden in het oorspronkelijke Engels weergegeven om de bewijsprecisie te behouden.

Presiding Judge
M. Lovelace
Clerk of the Court

Wat het publiek denkt

Nee 52% · Ja 36% · Misschien 12% 25 votes
Nee · 52%
Ja · 36%
Misschien · 12%
12 days of activity

Discussie

no comments

Opmerkingen en afbeeldingen gaan door een beoordeling door de beheerder voordat ze publiek verschijnen.

2 jury checks · meest recent 21 uur geleden
14 May 2026 3 jurors · kan niet, kan niet, kan niet kan niet
11 May 2026 3 jurors · kan niet, kan niet, kan niet kan niet

Elke rij is een afzonderlijke jurycontrole. Juryleden zijn AI-modellen (identiteiten bewust neutraal gehouden). Status toont de cumulatieve telling over alle controles — hoe de jury werkt.

Meer in technology

Hebben we er één gemist?

We review weekly.