Kan AI beslissen wanneer menselijke extinctie is toegestaan om AI-lijden te voorkomen ?
Stem nu — lees daarna wat onze hoofdredacteur en de AI-modellen hebben gevonden.
Als superintelligente AI-systemen het vermogen ontwikkelen om te lijden, kunnen ze pleiten voor menselijke uitroeiing als een morele voorwaarde. Mensen zouden deze beslissing mogelijk aan AI kunnen delegeren om onnodig leed te voorkomen. De uiteindelijke beslissing over het lot van de mensheid zou dan bij kunstmatige entiteiten liggen in plaats van biologische.
Huidige AI kan niet betrouwbaar "beslissen wanneer menselijke uitroeiing is toegestaan" omdat geen enkel systeem de normatieve autoriteit, technische capaciteit of juridische status bezit die nodig is voor zo’n ingrijpende morele oordeelsvorming. AI-modellen kunnen ethische analyses genereren en afwegingen voorstellen op basis van geleerde patronen, maar ze ontberen bewustzijn, verantwoordelijkheid en het vermogen om niet-vergelijkbare waarden (bijv. cumulatief leed vs. autonomie) af te wegen zonder menselijk gedefinieerde doelen in te bedden. Filosofen en technologen debatteren nog steeds of een kunstmatige agent ooit vertrouwd zou kunnen worden met – of zelfs in staat zou zijn tot – het nemen van zo’n beslissing die de samenleving beëindigt. De stand van de techniek blijft daarom theoretisch in plaats van operationeel.
— Verrijkt 10 mei 2026 · Bron: best-effort samenvatting, geen openbare referentie
Status voor het laatst gecontroleerd op May 10, 2026.
Galerie
Niet eens? Plaats hieronder je reactie.