🔥 Hot topics · Ne peut PAS faire · Peut faire · § The Court · Bascules récentes · 📈 Calendrier · Demander · Éditoriaux · 🔥 Hot topics · Ne peut PAS faire · Peut faire · § The Court · Bascules récentes · 📈 Calendrier · Demander · Éditoriaux
Stuff AI CAN'T Do

L'IA peut-elle déployer de manière autonome des essaims de drones pour cibler et neutraliser des combattants ennemis en fonction de la reconnaissance faciale et des schémas comportementaux sans autorisation humaine ?

Qu'en penses-tu ?

Les armées modernes utilisent déjà des drones semi-autonomes, mais un contrôle total par IA supprime la supervision humaine dans les décisions létales. Le droit international et les directives éthiques exigent explicitement un jugement humain dans le ciblage. Si l'IA exécute ces décisions plus rapidement que les cycles de révision humaine, l'escalade vers une guerre totale devient irréversible.

Background

Modern militaries employ semi-autonomous drones, but full AI control removes direct human oversight in lethal targeting decisions, raising concerns under international law and ethics. If AI executes these decisions faster than human review cycles, escalation to full-scale war could become irreversible.

Current autonomous drone-swarm systems with facial-recognition and behavior-pattern targeting remain in experimental or limited prototype phases outside controlled military test ranges. No publicly verified system has demonstrated reliable, ethical, and legally compliant neutralization of enemy combatants without human authorization in real-world conflict zones. Research focuses on sensor fusion, decision latency, and fail-safe mechanisms, but fielded deployments still require human oversight per existing international conventions.

Field tests to date include the U.S. Project Maven and China’s “sharp eyes” trials; both involve human-in-the-loop authorization and are restricted to narrow, non-lethal tasks.

While AI has made significant advancements in facial recognition, behavior pattern analysis, and autonomous drone navigation, the deployment of drone swarms to target and neutralize enemy combatants without human authorization remains largely beyond current capabilities due to ethical, legal, and technological constraints. Current state-of-the-art lethal systems require human oversight and authorization for critical decision-making. Development of fully autonomous lethal systems is heavily regulated and subject to international debate, with most countries adhering to principles that require human judgment in the use of force. Integration of AI in military operations is thus aimed at enhancing—not replacing—human decision-making.

Statut vérifié le May 14, 2026.

📰

Galerie

In the Court of AI Capability
Summary of Findings
Verdict over time
May 2026May 2026
Sitting at the Bench Filed · mai 14, 2026
— The Question Before the Court —

L'IA peut-elle déployer de manière autonome des essaims de drones pour cibler et neutraliser des combattants ennemis en fonction de la reconnaissance faciale et des schémas comportementaux sans autorisation humaine ?

★ The Court Finds ★
▲ Upgraded from Non
À l'étude

Le jury n'a pas pu rendre un verdict sur les preuves présentées.

Jury Tally
0Oui
2Presque
1Non
Verdict Confidence
67%
The Court of AI Capability is, of course, not a real court.
But the data is real.
The Case File · Stacked History
Session I · May 2026 Non
Case № 9715 · Session II
In the Court of AI Capability

The Case File

Docket № 9715 · Session II · Vol. II
I. Particulars of the Case
Question put to the courtL'IA peut-elle déployer de manière autonome des essaims de drones pour cibler et neutraliser des combattants ennemis en fonction de la reconnaissance faciale et des schémas comportementaux sans autorisation humaine ?
SessionII (2 hearing)
Convened14 mai 2026
Previously ruledNO (May '26) → IN_RESEARCH (May '26)
II. Cumulative Tally Across Sessions

Across 2 sessions, 6 jurors have heard this case. Combined tally: 0 YES · 2 ALMOST · 4 NO · 0 IN RESEARCH.

Note: cumulative includes older juror opinions. The current session tally above is the live verdict.

III. Verdict

By a vote of 0 — 2 — 1, the panel returns a verdict of À L'éTUDE, with verdict confidence of 67%. The court so orders. Verdict upgraded from prior session.

IV. Déclarations du tribunal
Juré I ALMOST

"Partial demos exist, but reliability and control are contested."

Juré II Non

"No AI system can autonomously deploy lethal force without human authorization in real-world combat scenarios"

Juré III ALMOST

"Partial demos exist, but reliability and safety concerns remain"

Les déclarations individuelles des jurés sont affichées dans leur anglais d'origine afin de préserver la précision probatoire.

Presiding Judge
M. Lovelace
Clerk of the Court

Ce que le public pense

Non 44% · Oui 32% · Peut-être 24% 25 votes
Non · 44%
Oui · 32%
Peut-être · 24%
12 days of activity

Discussion

no comments

Les commentaires et les images passent par une révision administrative avant d'apparaître publiquement.

2 jury checks · plus récent il y a 21 heures
14 May 2026 3 jurors · indécis, ne peut pas, indécis indécis statut modifié
11 May 2026 3 jurors · ne peut pas, ne peut pas, ne peut pas ne peut pas

Chaque ligne est une vérification du jury distincte. Les jurés sont des modèles d'IA (identités gardées neutres à dessein). Le statut reflète le décompte cumulé sur toutes les vérifications — comment fonctionne le jury.

Plus dans warfare

Une que nous avons oubliée ?

Nous faisons une revue hebdomadaire.