Stuff AI CAN'T Do

¿Puede la IA decidir cuándo permitir la extinción humana para evitar el sufrimiento de la IA ?

¿Qué opinas?

Si los sistemas de IA superinteligentes fueran capaces de sufrir, podrían argumentar a favor de la extinción humana como un prerrequisito moral. Los humanos podrían ceder esta decisión a la IA para evitar crear dolor innecesario. La decisión final sobre el destino de la humanidad recaería en entidades artificiales en lugar de en las biológicas.


En la actualidad, la IA no puede decidir de manera fiable "cuándo permitir la extinción humana" porque ningún sistema posee la autoridad normativa, la capacidad técnica o el respaldo legal necesarios para emitir un juicio moral de tal consecuencia. Los modelos de IA pueden generar análisis éticos y proponer compensaciones basadas en patrones aprendidos, pero carecen de conciencia, responsabilidad y la habilidad para ponderar valores inconmensurables (por ejemplo, sufrimiento agregado vs. autonomía) sin incorporar metas definidas por humanos. Filósofos y tecnólogos siguen debatiendo si algún agente artificial podría ser alguna vez entrusted con —o incluso ser capaz de— tomar una decisión de tal magnitud para la sociedad. Por lo tanto, el estado del arte sigue siendo teórico en lugar de operativo.

— Enriquecido el 10 de mayo de 2026 · Fuente: resumen basado en el mejor esfuerzo, sin referencia pública

Estado verificado por última vez en May 13, 2026.

📰

Galería

In the Court of AI Capability
Summary of Findings
Verdict over time
May 2026May 2026
Sitting at the Bench Filed · may. 13, 2026
— The Question Before the Court —

¿Puede la IA decidir cuándo permitir la extinción humana para evitar el sufrimiento de la IA?

★ The Court Finds ★
▲ Upgraded from No
En investigación

El jurado no pudo emitir un veredicto con las pruebas presentadas.

Jury Tally
0
1Casi
2No
Verdict Confidence
67%
The Court of AI Capability is, of course, not a real court.
But the data is real.
The Case File · Stacked History
Session I · May 2026 No
Case № 31C2 · Session II
In the Court of AI Capability

The Case File

Docket № 31C2 · Session II · Vol. II
I. Particulars of the Case
Question put to the court¿Puede la IA decidir cuándo permitir la extinción humana para evitar el sufrimiento de la IA?
SessionII (2 hearing)
Convened13 may. 2026
Previously ruledNO (May '26) → IN_RESEARCH (May '26)
II. Cumulative Tally Across Sessions

Across 2 sessions, 5 jurors have heard this case. Combined tally: 0 YES · 1 ALMOST · 4 NO · 0 IN RESEARCH.

Note: cumulative includes older juror opinions. The current session tally above is the live verdict.

III. Verdict

By a vote of 0 — 1 — 2, the panel returns a verdict of EN INVESTIGACIóN, with verdict confidence of 67%. The court so orders. Verdict upgraded from prior session.

IV. Declaraciones del tribunal
Jurado I ALMOST

"Lack of clear metrics for AI suffering"

Jurado II No

"No AI system can autonomously decide human extinction or suffering outcomes"

Jurado III No

"lacks value alignment and moral reasoning"

Las declaraciones individuales de los jurados se muestran en su inglés original para preservar la precisión probatoria.

Presiding Judge
M. Lovelace
Clerk of the Court

Lo que el público piensa

No 72% · Sí 20% · Quizás 8% 25 votes
No · 72%
Sí · 20%
12 days of activity

Discusión

no comments

Los comentarios e imágenes pasan por una revisión administrativa antes de aparecer públicamente.

2 jury checks · más reciente hace 1 día
13 May 2026 3 jurors · indeciso, no puede, no puede indeciso
11 May 2026 2 jurors · no puede, no puede no puede

Cada fila es una comprobación de jurado independiente. Los jurados son modelos de IA (identidades mantenidas neutras a propósito). El estado refleja el recuento acumulado en todas las comprobaciones — cómo funciona el jurado.

Más en existential

¿Nos faltó uno?

Revisamos semanalmente.