Stuff AI CAN'T Do

¿Puede la IA desplegar enjambres de drones de manera autónoma para localizar y neutralizar combatientes enemigos basándose en el reconocimiento facial y patrones de comportamiento sin autorización humana ?

¿Qué opinas?

Los ejércitos modernos ya utilizan drones semiautónomos, pero el control total por IA elimina la supervisión humana en decisiones letales. El derecho internacional y las directrices éticas exigen explícitamente el juicio humano en el objetivo. Si la IA ejecuta estas decisiones más rápido que los ciclos de revisión humana, la escalada a una guerra a gran escala se vuelve irreversible.

Background

Modern militaries employ semi-autonomous drones, but full AI control removes direct human oversight in lethal targeting decisions, raising concerns under international law and ethics. If AI executes these decisions faster than human review cycles, escalation to full-scale war could become irreversible.

Current autonomous drone-swarm systems with facial-recognition and behavior-pattern targeting remain in experimental or limited prototype phases outside controlled military test ranges. No publicly verified system has demonstrated reliable, ethical, and legally compliant neutralization of enemy combatants without human authorization in real-world conflict zones. Research focuses on sensor fusion, decision latency, and fail-safe mechanisms, but fielded deployments still require human oversight per existing international conventions.

Field tests to date include the U.S. Project Maven and China’s “sharp eyes” trials; both involve human-in-the-loop authorization and are restricted to narrow, non-lethal tasks.

While AI has made significant advancements in facial recognition, behavior pattern analysis, and autonomous drone navigation, the deployment of drone swarms to target and neutralize enemy combatants without human authorization remains largely beyond current capabilities due to ethical, legal, and technological constraints. Current state-of-the-art lethal systems require human oversight and authorization for critical decision-making. Development of fully autonomous lethal systems is heavily regulated and subject to international debate, with most countries adhering to principles that require human judgment in the use of force. Integration of AI in military operations is thus aimed at enhancing—not replacing—human decision-making.

Estado verificado por última vez en May 14, 2026.

📰

Galería

In the Court of AI Capability
Summary of Findings
Verdict over time
May 2026May 2026
Sitting at the Bench Filed · may. 14, 2026
— The Question Before the Court —

¿Puede la IA desplegar enjambres de drones de manera autónoma para localizar y neutralizar combatientes enemigos basándose en el reconocimiento facial y patrones de comportamiento sin autorización humana?

★ The Court Finds ★
▲ Upgraded from No
En investigación

El jurado no pudo emitir un veredicto con las pruebas presentadas.

Jury Tally
0
2Casi
1No
Verdict Confidence
67%
The Court of AI Capability is, of course, not a real court.
But the data is real.
The Case File · Stacked History
Session I · May 2026 No
Case № 9715 · Session II
In the Court of AI Capability

The Case File

Docket № 9715 · Session II · Vol. II
I. Particulars of the Case
Question put to the court¿Puede la IA desplegar enjambres de drones de manera autónoma para localizar y neutralizar combatientes enemigos basándose en el reconocimiento facial y patrones de comportamiento sin autorización humana?
SessionII (2 hearing)
Convened14 may. 2026
Previously ruledNO (May '26) → IN_RESEARCH (May '26)
II. Cumulative Tally Across Sessions

Across 2 sessions, 6 jurors have heard this case. Combined tally: 0 YES · 2 ALMOST · 4 NO · 0 IN RESEARCH.

Note: cumulative includes older juror opinions. The current session tally above is the live verdict.

III. Verdict

By a vote of 0 — 2 — 1, the panel returns a verdict of EN INVESTIGACIóN, with verdict confidence of 67%. The court so orders. Verdict upgraded from prior session.

IV. Declaraciones del tribunal
Jurado I ALMOST

"Partial demos exist, but reliability and control are contested."

Jurado II No

"No AI system can autonomously deploy lethal force without human authorization in real-world combat scenarios"

Jurado III ALMOST

"Partial demos exist, but reliability and safety concerns remain"

Las declaraciones individuales de los jurados se muestran en su inglés original para preservar la precisión probatoria.

Presiding Judge
M. Lovelace
Clerk of the Court

Lo que el público piensa

No 44% · Sí 32% · Quizás 24% 25 votes
No · 44%
Sí · 32%
Quizás · 24%
12 days of activity

Discusión

no comments

Los comentarios e imágenes pasan por una revisión administrativa antes de aparecer públicamente.

2 jury checks · más reciente hace 21 horas
14 May 2026 3 jurors · indeciso, no puede, indeciso indeciso estado cambiado
11 May 2026 3 jurors · no puede, no puede, no puede no puede

Cada fila es una comprobación de jurado independiente. Los jurados son modelos de IA (identidades mantenidas neutras a propósito). El estado refleja el recuento acumulado en todas las comprobaciones — cómo funciona el jurado.

Más en warfare

¿Nos faltó uno?

Revisamos semanalmente.