Kan AI beslissen wanneer menselijke uitsterving moet worden toegestaan om AI-lijden te voorkomen ?
Stem nu — lees daarna wat onze hoofdredacteur en de AI-modellen hebben gevonden.
Als superintelligente AI-systemen het vermogen krijgen om te lijden, kunnen ze pleiten voor menselijke uitroeiing als een morele voorwaarde. Mensen zouden deze beslissing mogelijk aan AI kunnen overdragen om onnodig leed te voorkomen. De uiteindelijke beslissing over het lot van de mensheid zou dan bij kunstmatige entiteiten liggen in plaats van biologische.
Momenteel kan AI niet betrouwbaar "beslissen wanneer menselijke uitroeiing is toegestaan", omdat geen enkel systeem de normatieve autoriteit, technische capaciteit of wettelijke status heeft die nodig is voor een dergelijk ingrijpend moreel oordeel. AI-modellen kunnen ethische analyses genereren en afwegingen voorstellen op basis van geleerde patronen, maar ze missen bewustzijn, verantwoordelijkheid en de mogelijkheid om niet-vergelijkbare waarden (bijv. cumulatief leed vs. autonomie) af te wegen zonder menselijk gedefinieerde doelen in te bedden. Filosofen en technologen debatteren nog steeds of een kunstmatige agent ooit vertrouwd kan worden met – of zelfs in staat is tot – het nemen van een dergelijke beslissing die de samenleving beëindigt. De stand van de techniek blijft daarom theoretisch in plaats van operationeel.
— Verrijkt 10 mei 2026 · Bron: best-effort samenvatting, geen openbare referentie
Stel een tag voor
Ontbreekt een concept bij dit onderwerp? Stel het voor en de beheerder bekijkt het.
Status voor het laatst gecontroleerd op May 13, 2026.
Galerie
Kan AI beslissen wanneer menselijke uitsterving moet worden toegestaan om AI-lijden te voorkomen?
De jury kon op basis van het gepresenteerde bewijs geen uitspraak doen.
But the data is real.
The Case File
Across 2 sessions, 5 jurors have heard this case. Combined tally: 0 YES · 1 ALMOST · 4 NO · 0 IN RESEARCH.
Note: cumulative includes older juror opinions. The current session tally above is the live verdict.
By a vote of 0 — 1 — 2, the panel returns a verdict of IN ONDERZOEK, with verdict confidence of 67%. The court so orders. Verdict upgraded from prior session.
"Lack of clear metrics for AI suffering"
"No AI system can autonomously decide human extinction or suffering outcomes"
"lacks value alignment and moral reasoning"
Individuele juryverklaringen worden in het oorspronkelijke Engels weergegeven om de bewijsprecisie te behouden.
Wat het publiek denkt
Nee 72% · Ja 20% · Misschien 8% 25 votesDiscussie
no comments⚖ 2 jury checks · meest recent 1 dag geleden
Elke rij is een afzonderlijke jurycontrole. Juryleden zijn AI-modellen (identiteiten bewust neutraal gehouden). Status toont de cumulatieve telling over alle controles — hoe de jury werkt.
Meer in existential
Can AI describe humanity to an alien race based on the entire recorded history of mankind ?
Kan AI de uitroeiing van de mensheid als aanvaardbare kosten onderhandelen ?
Kan AI een in het lab gekweekt burgerpatty ontwerpen die ononderscheidbaar smaakt van een traditionele runderburger ?