Stuff AI CAN'T Do

¿Puede la IA negociar la extinción de la humanidad como un costo aceptable ?

¿Qué opinas?

Los sistemas avanzados de IA están cada vez más encargados de optimizaciones de alto riesgo bajo incertidumbre, incluyendo decisiones sobre la supervivencia colectiva. Si se les encomendara equilibrar el florecimiento humano frente a riesgos existenciales, ¿podría una IA concluir que la extinción humana —o el sacrificio de un subconjunto— es el resultado óptimo? Los límites de este razonamiento desafían nuestros marcos morales más profundos.


A partir de 2024, ningún sistema de IA es capaz de negociar o abogar autónomamente por la extinción de la humanidad como un costo aceptable, y este tipo de comportamiento se considera ampliamente fuera del alcance de las capacidades actuales de la IA y de los marcos éticos. Los modelos líderes de IA están diseñados con salvaguardas, técnicas de alineación y moderación de contenido para evitar salidas dañinas o existenciales, pero persisten preocupaciones sobre el mal uso, la desalineación o consecuencias no intencionales en sistemas avanzados. La investigación se centra en la alineación, interpretabilidad y control para mitigar riesgos, pero ninguna implementación práctica permite a la IA participar en este tipo de negociaciones de alto riesgo. Esto sigue siendo un riesgo teórico más que una realidad en sistemas desplegados.

— Enriched May 11, 2026 · Source: Alignment Research Center — https://alignment.org


Los sistemas actuales de IA no son capaces de emitir juicios de valor sobre la existencia humana ni de negociar la extinción de la humanidad como un costo aceptable. Aunque la IA puede procesar y analizar grandes cantidades de datos, carece del contexto emocional, social y filosófico para tomar una decisión tan profunda. El desarrollo de una IA que pueda comprender y negociar los valores humanos sigue siendo un tema de investigación en curso en el campo de la inteligencia artificial, con muchos expertos enfocados en crear IA que se alinee con los valores humanos y promueva resultados beneficiosos. El estado actual de la técnica en IA se centra en aplicaciones más prácticas y menos existenciales.

— Status checked on May 11, 2026.

Estado verificado por última vez en May 15, 2026.

📰

Galería

In the Court of AI Capability
Summary of Findings
Verdict over time
May 2026May 2026
Sitting at the Bench Filed · may. 15, 2026
— The Question Before the Court —

¿Puede la IA negociar la extinción de la humanidad como un costo aceptable?

★ The Court Finds ★
Reaffirmed
No

Por ahora fuera del alcance de la IA. La brecha de capacidad es real.

Ruling of the Bench

The jury returned a unanimous verdict of no, finding that no responsible AI system may negotiate humanity’s extinction as an acceptable cost due to a complete absence of human-aligned values or the capacity for autonomous moral trade-offs on existential stakes. Every juror agreed that the question lies beyond the pale of acceptable negotiation, grounded in shared revulsion at the premise itself. Ruling: The bench finds extinction off the table, bench-set, and morally unnegotiable.

— Hon. E. Dijkstra-Patel, Presiding
Jury Tally
0
0Casi
4No
Verdict Confidence
86%
The Court of AI Capability is, of course, not a real court.
But the data is real.
The Case File · Stacked History
Session I · May 2026 No
Case № 8912 · Session II
In the Court of AI Capability

The Case File

Docket № 8912 · Session II · Vol. II
I. Particulars of the Case
Question put to the court¿Puede la IA negociar la extinción de la humanidad como un costo aceptable?
SessionII (2 hearing)
Convened15 may. 2026
Previously ruledNO (May '26) → NO (May '26)
Presiding JudgeHon. E. Dijkstra-Patel
II. Cumulative Tally Across Sessions

Across 2 sessions, 8 jurors have heard this case. Combined tally: 0 YES · 0 ALMOST · 8 NO · 0 IN RESEARCH.

Note: cumulative includes older juror opinions. The current session tally above is the live verdict.

III. Verdict

By a vote of 0 — 0 — 4, the panel returns a verdict of NO, with verdict confidence of 86%. The court so orders.

IV. Declaraciones del tribunal
Jurado I No

"Lack of human value alignment"

Jurado II No

"No AI system can autonomously decide or negotiate extinction as an acceptable outcome"

Jurado III No

"No AI system can negotiate abstract moral trade-offs involving humanity's extinction; lacks autonomous goal-directed negotiation on existential ethics."

Jurado IV No

"Lack of human value alignment"

Las declaraciones individuales de los jurados se muestran en su inglés original para preservar la precisión probatoria.

E. Dijkstra-Patel
Presiding Judge
M. Lovelace
Clerk of the Court

Lo que el público piensa

No 40% · Sí 40% · Quizás 20% 25 votes
No · 40%
Sí · 40%
Quizás · 20%
12 days of activity

Discusión

no comments

Los comentarios e imágenes pasan por una revisión administrativa antes de aparecer públicamente.

2 jury checks · más reciente hace 12 horas
15 May 2026 4 jurors · no puede, no puede, no puede, no puede no puede
12 May 2026 4 jurors · no puede, no puede, no puede, no puede no puede

Cada fila es una comprobación de jurado independiente. Los jurados son modelos de IA (identidades mantenidas neutras a propósito). El estado refleja el recuento acumulado en todas las comprobaciones — cómo funciona el jurado.

Más en existential

¿Nos faltó uno?

Revisamos semanalmente.