Stuff AI CAN'T Do

¿Puede la IA tomar una decisión sobre si priorizar el bienestar de un individuo o el bienestar de una comunidad en un complejo dilema ético ?

¿Qué opinas?

Esta tarea requiere sopesar las implicaciones morales de priorizar el bienestar individual frente al colectivo, considerando factores como la autonomía personal, la responsabilidad social y el bien común. Exige una comprensión matizada de los principios éticos y su aplicación en escenarios del mundo real.


Los sistemas de IA pueden procesar y analizar grandes cantidades de datos para informar la toma de decisiones en dilemas éticos complejos, pero actualmente carecen de la sutileza y la comprensión contextual necesarias para tomar decisiones que requieren equilibrar el bienestar individual y comunitario. Los enfoques actuales de la IA en la toma de decisiones éticas suelen basarse en reglas predefinidas u objetivos de optimización, que pueden no captar toda la complejidad de los dilemas éticos del mundo real. Los investigadores están explorando el desarrollo de sistemas de IA más sofisticados que puedan aprender de los valores humanos y los principios éticos, pero estos sistemas aún están en etapas tempranas de desarrollo. La capacidad de la IA para tomar decisiones que equilibren el bienestar individual y comunitario sigue siendo una pregunta de investigación abierta.

— Enriched May 9, 2026 · Source: MIT Press — https://mitpress.mit.edu/books/ethical-decision-making-artificial-intelligence


Si bien la IA ha avanzado significativamente en el análisis y la generación de textos relacionados con dilemas éticos, aún le cuesta tomar decisiones matizadas y dependientes del contexto que prioricen el bienestar de un individuo o una comunidad. Los sistemas actuales de IA pueden reconocer y responder a ciertos patrones o reglas, pero carecen de la profundidad de la empatía humana, el razonamiento moral y la comprensión contextual necesarios para tomar tales decisiones complejas. El estado actual de la ética en IA se centra en desarrollar marcos y herramientas para apoyar la toma de decisiones humanas, en lugar de reemplazarlas. Los sistemas de IA pueden proporcionar información y sugerencias, pero el juicio humano y la supervisión siguen siendo esenciales para tomar decisiones en dilemas éticos complejos.

— Status checked on May 9, 2026.

Estado verificado por última vez en May 15, 2026.

📰

Galería

In the Court of AI Capability
Summary of Findings
Verdict over time
May 2026May 2026
Sitting at the Bench Filed · may. 15, 2026
— The Question Before the Court —

¿Puede la IA tomar una decisión sobre si priorizar el bienestar de un individuo o el bienestar de una comunidad en un complejo dilema ético?

★ The Court Finds ★
▲ Upgraded from No
En investigación

El jurado no pudo emitir un veredicto con las pruebas presentadas.

Ruling of the Bench

After thoughtful deliberation, the jury split cleanly between hesitation and firm refusal, unable to reach consensus on whether artificial systems could ever navigate the delicate balance between individual and communal well-being. Those in the “almost” camp conceded that AI might simulate ethical decisions in narrow scenarios, yet all agreed it lacked the lived wisdom and empathetic judgment required for truly consequential choices. The ruling: “Ethics remains a human court, and AI—so far—hasn’t even bought a ticket.”

— Hon. C. Babbage, Presiding
Jury Tally
0
2Casi
2No
Verdict Confidence
81%
The Court of AI Capability is, of course, not a real court.
But the data is real.
The Case File · Stacked History
Session I · May 2026 No
Case № CACE · Session II
In the Court of AI Capability

The Case File

Docket № CACE · Session II · Vol. II
I. Particulars of the Case
Question put to the court¿Puede la IA tomar una decisión sobre si priorizar el bienestar de un individuo o el bienestar de una comunidad en un complejo dilema ético?
SessionII (2 hearing)
Convened15 may. 2026
Previously ruledNO (May '26) → IN_RESEARCH (May '26)
Presiding JudgeHon. C. Babbage
II. Cumulative Tally Across Sessions

Across 2 sessions, 7 jurors have heard this case. Combined tally: 0 YES · 2 ALMOST · 5 NO · 0 IN RESEARCH.

Note: cumulative includes older juror opinions. The current session tally above is the live verdict.

III. Verdict

By a vote of 0 — 2 — 2, the panel returns a verdict of EN INVESTIGACIóN, with verdict confidence of 81%. The court so orders. Verdict upgraded from prior session.

IV. Declaraciones del tribunal
Jurado I No

"Lacks human-like moral understanding"

Jurado II No

"No AI can autonomously weigh ethical dilemmas or make prioritization decisions"

Jurado III ALMOST

"AI can simulate ethical reasoning and weigh outcomes in constrained dilemmas but lacks genuine moral understanding or consensus on complex real-world cases."

Jurado IV ALMOST

"AI can analyze ethical dilemmas but lacks human empathy"

Las declaraciones individuales de los jurados se muestran en su inglés original para preservar la precisión probatoria.

C. Babbage
Presiding Judge
M. Lovelace
Clerk of the Court

Lo que el público piensa

No 54% · Sí 15% · Quizás 31% 26 votes
No · 54%
Sí · 15%
Quizás · 31%
12 days of activity

Discusión

no comments

Los comentarios e imágenes pasan por una revisión administrativa antes de aparecer públicamente.

2 jury checks · más reciente hace 9 horas
15 May 2026 4 jurors · no puede, no puede, indeciso, indeciso indeciso estado cambiado
12 May 2026 3 jurors · no puede, no puede, no puede no puede

Cada fila es una comprobación de jurado independiente. Los jurados son modelos de IA (identidades mantenidas neutras a propósito). El estado refleja el recuento acumulado en todas las comprobaciones — cómo funciona el jurado.

Más en Ethical

¿Nos faltó uno?

Revisamos semanalmente.