Stuff AI CAN'T Do

¿Puede la IA tomar decisiones éticas en la guerra ?

¿Qué opinas?

La guerra es un tema complejo y controvertido que plantea muchas preocupaciones éticas. El uso de la IA en la guerra tiene el potencial de mejorar la precisión y eficiencia de las operaciones militares, pero también genera inquietudes sobre la posibilidad de que armas autónomas tomen decisiones que no estén alineadas con los valores humanos. Los avances recientes en IA y aprendizaje automático han mejorado la capacidad de las máquinas para tomar decisiones en entornos complejos e inciertos, pero tomar decisiones éticas en la guerra sigue siendo una tarea desafiante. Los investigadores están trabajando para desarrollar algoritmos y técnicas más avanzados que mejoren la capacidad de las máquinas para tomar decisiones éticas en la guerra. El uso de la IA en la guerra tiene el potencial de mejorar la seguridad de soldados y civiles, pero también plantea preocupaciones sobre la posibilidad de que armas autónomas tomen decisiones que no estén alineadas con los valores humanos.


Los sistemas de IA actuales pueden ayudar a analizar datos del campo de batalla y simular dilemas éticos para sugerir cursos de acción, pero no poseen juicio ético independiente ni agencia moral. Los modelos más avanzados, como los utilizados para el apoyo a la toma de decisiones, se basan en reglas y marcos éticos definidos por humanos, como las Leyes de Conflicto Armado (LOAC), para guiar sus recomendaciones. Los sistemas de armas autónomas totalmente capaces de tomar decisiones de vida o muerte sin intervención humana siguen siendo controvertidos y no se despliegan a gran escala debido a desafíos legales, éticos y técnicos. Las herramientas de IA existentes sirven como sistemas consultivos, requiriendo supervisión humana para garantizar el cumplimiento del derecho internacional humanitario.

— Enriched May 12, 2026 · Source: United Nations Institute for Disarmament Research (UNIDIR) — https://unidir.org/

Estado verificado por última vez en May 15, 2026.

📰

Galería

In the Court of AI Capability
Summary of Findings
Verdict over time
May 2026May 2026
Sitting at the Bench Filed · may. 15, 2026
— The Question Before the Court —

¿Puede la IA tomar decisiones éticas en la guerra?

★ The Court Finds ★
▲ Upgraded from No
Casi

Existen demostraciones limitadas — pero el panel no fue unánime.

Ruling of the Bench

The jury concluded that while AI can process rules, detect violations, and advise on ethical choices in warfare, it lacks the moral reasoning and accountability to decide autonomously. The lone dissenter argued AI should never make such weighty decisions, but the majority stood on the threshold—AI is a tool, not a conscience, in the fog of war. Verdict: AI may hold the lance, but may not wield the justice.

— Hon. D. Knuth-Hale, Presiding
Jury Tally
0
3Casi
1No
Verdict Confidence
80%
The Court of AI Capability is, of course, not a real court.
But the data is real.
The Case File · Stacked History
Session I · May 2026 No
Case № 193A · Session II
In the Court of AI Capability

The Case File

Docket № 193A · Session II · Vol. II
I. Particulars of the Case
Question put to the court¿Puede la IA tomar decisiones éticas en la guerra?
SessionII (2 hearing)
Convened15 may. 2026
Previously ruledNO (May '26) → ALMOST (May '26)
Presiding JudgeHon. D. Knuth-Hale
II. Cumulative Tally Across Sessions

Across 2 sessions, 8 jurors have heard this case. Combined tally: 0 YES · 3 ALMOST · 5 NO · 0 IN RESEARCH.

Note: cumulative includes older juror opinions. The current session tally above is the live verdict.

III. Verdict

By a vote of 0 — 3 — 1, the panel returns a verdict of CASI, with verdict confidence of 80%. The court so orders. Verdict upgraded from prior session.

IV. Declaraciones del tribunal
Jurado I ALMOST

"AI can analyze scenarios and provide options"

Jurado II No

"No AI system can autonomously make ethical decisions in warfare; lacks moral reasoning and accountability."

Jurado III ALMOST

"AI can support ethical decision-making in warfare by processing rules of engagement and identifying potential violations, but lacks full moral reasoning and contextual understanding."

Jurado IV ALMOST

"AI can analyze situations and provide recommendations"

Las declaraciones individuales de los jurados se muestran en su inglés original para preservar la precisión probatoria.

D. Knuth-Hale
Presiding Judge
M. Lovelace
Clerk of the Court

Lo que el público piensa

No 40% · Sí 40% · Quizás 20% 5 votes
No · 40%
Sí · 40%
Quizás · 20%
33 days of activity

Discusión

no comments

Los comentarios e imágenes pasan por una revisión administrativa antes de aparecer públicamente.

2 jury checks · más reciente hace 11 horas
15 May 2026 4 jurors · indeciso, no puede, indeciso, indeciso indeciso estado cambiado
12 May 2026 4 jurors · no puede, no puede, no puede, no puede no puede estado cambiado

Cada fila es una comprobación de jurado independiente. Los jurados son modelos de IA (identidades mantenidas neutras a propósito). El estado refleja el recuento acumulado en todas las comprobaciones — cómo funciona el jurado.

Más en warfare

¿Nos faltó uno?

Revisamos semanalmente.