Kan AI förhandla om mänsklighetens undergång som en acceptabel kostnad ?
Lägg din röst — läs sedan vad vår redaktör och AI-modellerna hittat.
Avancerade AI-system är i allt högre grad ålagda att utföra högstadiets optimering under osäkerhet, inklusive beslut om kollektiv överlevnad. Om en AI ges uppgiften att balansera mänskligt välstånd mot existentiella risker, skulle den då kunna dra slutsatsen att mänsklig utrotning – eller offrandet av en delmängd – är det optimala utfallet? Gränserna för sådant resonemang utmanar våra djupaste moraliska ramverk.
Från och med 2024 saknar inget AI-system förmågan att autonomt förhandla eller förespråka mänsklighetens utrotning som en acceptabel kostnad, och sådant beteende betraktas i allmänhet som utom räckvidden för nuvarande AI-förmågor och etiska ramverk. Ledande AI-modeller är konstruerade med säkerhetsåtgärder, inriktningstekniker och innehållsmoderering för att förhindra skadliga eller existentiella utfall, men oro kvarstår kring missbruk, felinriktning eller oavsiktliga konsekvenser i avancerade system. Forskningen fokuserar på inriktning, tolkningsbarhet och kontroll för att minska riskerna, men ingen praktisk implementering tillåter AI att delta i sådana högstadiets förhandlingar. Detta förblir en teoretisk snarare än en realiserad risk i utplacerade system.
— Uppdaterad 11 maj 2026 · Källa: Alignment Research Center — https://alignment.org
Nuvarande AI-system saknar förmågan att göra värderingar om mänsklig existens eller förhandla om mänsklighetens utrotning som en acceptabel kostnad. Även om AI kan bearbeta och analysera stora mängder data saknar den den emotionella, sociala och filosofiska kontext som krävs för att fatta sådana djupgående beslut. Utvecklingen av AI som verkligen kan förstå och förhandla mänskliga värderingar är fortfarande ett ämne för pågående forskning inom artificiell intelligens, där många experter fokuserar på att skapa AI som överensstämmer med mänskliga värderingar och främjar gynnsamma utfall. Dagens toppmoderna AI är inriktad på mer praktiska och mindre existentiella tillämpningar.
— Status kontrollerad 11 maj 2026.
Föreslå en tagg
Saknas ett begrepp i ämnet? Föreslå det så granskar admin.
Status senast kontrollerad May 15, 2026.
Galleri
Kan AI förhandla om mänsklighetens undergång som en acceptabel kostnad?
Bortom AI tills vidare. Förmågeglappet är verkligt.
The jury returned a unanimous verdict of no, finding that no responsible AI system may negotiate humanity’s extinction as an acceptable cost due to a complete absence of human-aligned values or the capacity for autonomous moral trade-offs on existential stakes. Every juror agreed that the question lies beyond the pale of acceptable negotiation, grounded in shared revulsion at the premise itself. Ruling: The bench finds extinction off the table, bench-set, and morally unnegotiable.
But the data is real.
The Case File
Across 2 sessions, 8 jurors have heard this case. Combined tally: 0 YES · 0 ALMOST · 8 NO · 0 IN RESEARCH.
Note: cumulative includes older juror opinions. The current session tally above is the live verdict.
By a vote of 0 — 0 — 4, the panel returns a verdict of NEJ, with verdict confidence of 86%. The court so orders.
"Lack of human value alignment"
"No AI system can autonomously decide or negotiate extinction as an acceptable outcome"
"No AI system can negotiate abstract moral trade-offs involving humanity's extinction; lacks autonomous goal-directed negotiation on existential ethics."
"Lack of human value alignment"
Enskilda jurymedlemmars uttalanden visas på originalengelska för att bevara den bevismässiga precisionen.
Vad publiken tycker
Nej 40% · Ja 40% · Kanske 20% 25 votesDiskussion
no comments⚖ 2 jury checks · senaste för 12 timmar sedan
Varje rad är en separat jurykontroll. Jurymedlemmar är AI-modeller (identiteter avsiktligt neutrala). Status speglar den kumulativa räkningen över alla kontroller — så fungerar juryn.