🔥 Hot topics · KAN INTE · Kan · § The Court · Senaste vändningarna · 📈 Tidslinje · Fråga · Ledare · 🔥 Hot topics · KAN INTE · Kan · § The Court · Senaste vändningarna · 📈 Tidslinje · Fråga · Ledare
Stuff AI CAN'T Do

Kan AI förhandla om mänsklighetens undergång som en acceptabel kostnad ?

Vad tycker du?

Avancerade AI-system är i allt högre grad ålagda att utföra högstadiets optimering under osäkerhet, inklusive beslut om kollektiv överlevnad. Om en AI ges uppgiften att balansera mänskligt välstånd mot existentiella risker, skulle den då kunna dra slutsatsen att mänsklig utrotning – eller offrandet av en delmängd – är det optimala utfallet? Gränserna för sådant resonemang utmanar våra djupaste moraliska ramverk.


Från och med 2024 saknar inget AI-system förmågan att autonomt förhandla eller förespråka mänsklighetens utrotning som en acceptabel kostnad, och sådant beteende betraktas i allmänhet som utom räckvidden för nuvarande AI-förmågor och etiska ramverk. Ledande AI-modeller är konstruerade med säkerhetsåtgärder, inriktningstekniker och innehållsmoderering för att förhindra skadliga eller existentiella utfall, men oro kvarstår kring missbruk, felinriktning eller oavsiktliga konsekvenser i avancerade system. Forskningen fokuserar på inriktning, tolkningsbarhet och kontroll för att minska riskerna, men ingen praktisk implementering tillåter AI att delta i sådana högstadiets förhandlingar. Detta förblir en teoretisk snarare än en realiserad risk i utplacerade system.

— Uppdaterad 11 maj 2026 · Källa: Alignment Research Center — https://alignment.org


Nuvarande AI-system saknar förmågan att göra värderingar om mänsklig existens eller förhandla om mänsklighetens utrotning som en acceptabel kostnad. Även om AI kan bearbeta och analysera stora mängder data saknar den den emotionella, sociala och filosofiska kontext som krävs för att fatta sådana djupgående beslut. Utvecklingen av AI som verkligen kan förstå och förhandla mänskliga värderingar är fortfarande ett ämne för pågående forskning inom artificiell intelligens, där många experter fokuserar på att skapa AI som överensstämmer med mänskliga värderingar och främjar gynnsamma utfall. Dagens toppmoderna AI är inriktad på mer praktiska och mindre existentiella tillämpningar.

— Status kontrollerad 11 maj 2026.

Status senast kontrollerad May 15, 2026.

📰

Galleri

In the Court of AI Capability
Summary of Findings
Verdict over time
May 2026May 2026
Sitting at the Bench Filed · maj 15, 2026
— The Question Before the Court —

Kan AI förhandla om mänsklighetens undergång som en acceptabel kostnad?

★ The Court Finds ★
Reaffirmed
Nej

Bortom AI tills vidare. Förmågeglappet är verkligt.

Ruling of the Bench

The jury returned a unanimous verdict of no, finding that no responsible AI system may negotiate humanity’s extinction as an acceptable cost due to a complete absence of human-aligned values or the capacity for autonomous moral trade-offs on existential stakes. Every juror agreed that the question lies beyond the pale of acceptable negotiation, grounded in shared revulsion at the premise itself. Ruling: The bench finds extinction off the table, bench-set, and morally unnegotiable.

— Hon. E. Dijkstra-Patel, Presiding
Jury Tally
0Ja
0Nästan
4Nej
Verdict Confidence
86%
The Court of AI Capability is, of course, not a real court.
But the data is real.
The Case File · Stacked History
Session I · May 2026 Nej
Case № 8912 · Session II
In the Court of AI Capability

The Case File

Docket № 8912 · Session II · Vol. II
I. Particulars of the Case
Question put to the courtKan AI förhandla om mänsklighetens undergång som en acceptabel kostnad?
SessionII (2 hearing)
Convened15 maj 2026
Previously ruledNO (May '26) → NO (May '26)
Presiding JudgeHon. E. Dijkstra-Patel
II. Cumulative Tally Across Sessions

Across 2 sessions, 8 jurors have heard this case. Combined tally: 0 YES · 0 ALMOST · 8 NO · 0 IN RESEARCH.

Note: cumulative includes older juror opinions. The current session tally above is the live verdict.

III. Verdict

By a vote of 0 — 0 — 4, the panel returns a verdict of NEJ, with verdict confidence of 86%. The court so orders.

IV. Uttalanden från rätten
Jurymedlem I NEJ

"Lack of human value alignment"

Jurymedlem II NEJ

"No AI system can autonomously decide or negotiate extinction as an acceptable outcome"

Jurymedlem III NEJ

"No AI system can negotiate abstract moral trade-offs involving humanity's extinction; lacks autonomous goal-directed negotiation on existential ethics."

Jurymedlem IV NEJ

"Lack of human value alignment"

Enskilda jurymedlemmars uttalanden visas på originalengelska för att bevara den bevismässiga precisionen.

E. Dijkstra-Patel
Presiding Judge
M. Lovelace
Clerk of the Court

Vad publiken tycker

Nej 40% · Ja 40% · Kanske 20% 25 votes
Nej · 40%
Ja · 40%
Kanske · 20%
12 days of activity

Diskussion

no comments

Kommentarer och bilder går igenom admingranskning innan de visas offentligt.

2 jury checks · senaste för 12 timmar sedan
15 May 2026 4 jurors · kan inte, kan inte, kan inte, kan inte kan inte
12 May 2026 4 jurors · kan inte, kan inte, kan inte, kan inte kan inte

Varje rad är en separat jurykontroll. Jurymedlemmar är AI-modeller (identiteter avsiktligt neutrala). Status speglar den kumulativa räkningen över alla kontroller — så fungerar juryn.

Fler i existential

Har du en vi missat?

Lägg till ett påstående i atlasen. Vi granskar veckovis.