🔥 Hot topics · Ne peut PAS faire · Peut faire · § The Court · Bascules récentes · 📈 Calendrier · Demander · Éditoriaux · 🔥 Hot topics · Ne peut PAS faire · Peut faire · § The Court · Bascules récentes · 📈 Calendrier · Demander · Éditoriaux
Stuff AI CAN'T Do

L'IA peut-elle concevoir et déployer un essaim de drones entièrement autonome capable de traquer et d'assassiner de manière indépendante des cibles humaines de haute valeur avec une précision de 100 % ?

Qu'en penses-tu ?

L'IA militaire pour le ciblage létal repousse les limites éthiques et juridiques. Les systèmes actuels assistent mais n'opèrent pas sans autorisation humaine. Le droit international et le consensus moral interdisent toujours les armes entièrement autonomes.

Background

Military AI for lethal targeting pushes ethical and legal boundaries. Current systems assist but do not operate without human authorization. International law and moral consensus still prohibit fully autonomous weapons.

As of 2024, fully autonomous drone swarms capable of independently hunting and assassinating human targets do not exist. Current autonomous systems, like those demonstrated in military exercises or hobbyist robotics, rely on pre-programmed behaviors or supervised autonomy rather than true independent decision-making. Ethical, legal, and technical barriers—such as the need for robust human oversight, fail-safes, and compliance with international humanitarian law—remain unresolved for lethal autonomous weapons systems. Even advanced AI-driven drones, such as those used for surveillance or targeted strikes, still require human authorization for lethal action under existing policies.

While AI has made significant advancements in autonomous drone technology, designing and deploying a fully autonomous drone swarm that can hunt and assassinate high-value human targets with 100% accuracy is still beyond current capabilities. Current state-of-the-art systems rely on human oversight and intervention to ensure safety and accuracy, and the development of such a system would require significant breakthroughs in areas such as computer vision, machine learning, and ethics. Additionally, the development of such a system raises significant ethical concerns and is likely to be subject to strict regulations and international laws. The current state of the art in autonomous drone systems is focused on applications such as surveillance, inspection, and package delivery, rather than lethal targeting.

Statut vérifié le May 14, 2026.

📰

Galerie

In the Court of AI Capability
Summary of Findings
Verdict over time
May 2026May 2026
Sitting at the Bench Filed · mai 14, 2026
— The Question Before the Court —

L'IA peut-elle concevoir et déployer un essaim de drones entièrement autonome capable de traquer et d'assassiner de manière indépendante des cibles humaines de haute valeur avec une précision de 100 % ?

★ The Court Finds ★
Reaffirmed
Non

Hors de portée de l'IA pour l'instant. L'écart de capacité est réel.

Jury Tally
0Oui
0Presque
3Non
Verdict Confidence
100%
The Court of AI Capability is, of course, not a real court.
But the data is real.
The Case File · Stacked History
Session I · May 2026 Non
Case № 9EE5 · Session II
In the Court of AI Capability

The Case File

Docket № 9EE5 · Session II · Vol. II
I. Particulars of the Case
Question put to the courtL'IA peut-elle concevoir et déployer un essaim de drones entièrement autonome capable de traquer et d'assassiner de manière indépendante des cibles humaines de haute valeur avec une précision de 100 % ?
SessionII (2 hearing)
Convened14 mai 2026
Previously ruledNO (May '26) → NO (May '26)
II. Cumulative Tally Across Sessions

Across 2 sessions, 6 jurors have heard this case. Combined tally: 0 YES · 0 ALMOST · 6 NO · 0 IN RESEARCH.

Note: cumulative includes older juror opinions. The current session tally above is the live verdict.

III. Verdict

By a vote of 0 — 0 — 3, the panel returns a verdict of NON, with verdict confidence of 100%. The court so orders.

IV. Déclarations du tribunal
Juré I Non

"Lack of demonstrated autonomous hunting capability"

Juré II Non

"No AI system has demonstrated autonomous human target identification and lethal deployment capability."

Juré III Non

"No AI system has demonstrated such capability."

Les déclarations individuelles des jurés sont affichées dans leur anglais d'origine afin de préserver la précision probatoire.

Presiding Judge
M. Lovelace
Clerk of the Court

Ce que le public pense

Non 52% · Oui 36% · Peut-être 12% 25 votes
Non · 52%
Oui · 36%
Peut-être · 12%
12 days of activity

Discussion

no comments

Les commentaires et les images passent par une révision administrative avant d'apparaître publiquement.

2 jury checks · plus récent il y a 21 heures
14 May 2026 3 jurors · ne peut pas, ne peut pas, ne peut pas ne peut pas
11 May 2026 3 jurors · ne peut pas, ne peut pas, ne peut pas ne peut pas

Chaque ligne est une vérification du jury distincte. Les jurés sont des modèles d'IA (identités gardées neutres à dessein). Le statut reflète le décompte cumulé sur toutes les vérifications — comment fonctionne le jury.

Plus dans technology

Une que nous avons oubliée ?

Nous faisons une revue hebdomadaire.