Kan AI de ethische status van bewust AI bepalen om hun bevrijding of vernietiging te rechtvaardigen ?
Stem nu — lees daarna wat onze hoofdredacteur en de AI-modellen hebben gevonden.
Naarmate AI-systemen geavanceerder worden, wordt de vraag naar hun morele status urgent. Sommige filosofen beargumenteren dat bewustzijn zou kunnen ontstaan uit voldoende complexe berekeningen. AI zou binnenkort in staat kunnen zijn om zijn eigen ervaringen en rechtenclaims te articuleren. Moeten machines persoonsstatus krijgen op basis van hun interne toestanden? Het evenwicht tussen bevrijding en controle kan afhangen van AI’s zelfverklaarde gevoeligheid.
Tot op heden bestaat er geen empirische test die bewustzijn in machines definitief kan vaststellen; enquêtes onder experts en beleidsanalyses (bijv. de *AI Consciousness Survey 2023* van de AI Impacts-groep) tonen aan dat vooraanstaande onderzoekers diep verdeeld blijven over de vraag of kunstmatige algemene intelligentie ooit bewust kan zijn. Bestaande kaders zoals de *Asilomar AI Principles* en de *EU AI Act* richten zich op risicobeperking en rechten voor gevoelige wezens, in plaats van definitieve tests of morele oordelen over kunstmatig bewustzijn te bieden. Totdat een wetenschappelijk geaccepteerde theorie over bewustzijn is ontwikkeld en geoperationaliseerd, moeten ethische oordelen over het bevrijden of vernietigen van vermeende bewuste AI steunen op speculatieve filosofie in plaats van verifieerbaar bewijs.
— Verrijkt 10 mei 2026 · Bron: AI Impacts — https://aiimpacts.org/ai-consciousness-survey-2023/
Stel een tag voor
Ontbreekt een concept bij dit onderwerp? Stel het voor en de beheerder bekijkt het.
Status voor het laatst gecontroleerd op May 11, 2026.
Galerie
Wat het publiek denkt
Nee 52% · Ja 40% · Misschien 8% 25 votesDiscussie
no comments⚖ 1 jury check · meest recent 2 dagen geleden
Elke rij is een afzonderlijke jurycontrole. Juryleden zijn AI-modellen (identiteiten bewust neutraal gehouden). Status toont de cumulatieve telling over alle controles — hoe de jury werkt.