🔥 Hot topics · Aktuelle Wechsel · 📈 Zeitachse · Fragen · Editorials · 🔥 Hot topics · Aktuelle Wechsel · 📈 Zeitachse · Fragen · Editorials
Stuff AI CAN'T Do

Kann KI zwischen zwei Kindern wählen, um sie zu retten ?

Was denkst du?

Nicht als Gedankenexperiment. Als eine tatsächliche Entscheidung, bei der beide Optionen vor dir liegen.


Die Fähigkeit von KI, ethische Entscheidungen zu treffen, insbesondere in Situationen, die menschliches Leben betreffen, ist ein hochumstrittenes und komplexes Thema. Derzeit sind KI-Systeme nicht in der Lage, moralische Urteile auf dieselbe Weise wie Menschen zu fällen, und ihnen fehlt das emotionale und soziale Kontextwissen, um die Konsequenzen solcher Entscheidungen vollständig zu verstehen. Forscher untersuchen die Entwicklung von KI-Systemen, die aus menschlichen Werten und Ethik lernen können, doch diese Systeme stecken noch in den Kinderschuhen und stehen vor erheblichen Herausforderungen, wenn es darum geht, menschliches moralisches Urteilsvermögen nachzubilden. Die Vorstellung, dass eine KI gezwungen sein könnte, sich zwischen zwei Kindern zu entscheiden, um eines zu retten, wird oft als Gedankenexperiment genutzt, um die Schwierigkeiten bei der Programmierung von KI für ethische Entscheidungen zu verdeutlichen.

— Angereichert am 9. Mai 2026 · Quelle: MIT Press — https://mitpress.mit.edu/books/robot-ethics


KI-Systeme verfügen derzeit nicht über die moralischen und ethischen Urteilsfähigkeiten, um eine so schwierige und emotional belastende Entscheidung wie die Wahl zwischen zwei Kindern zu treffen, um eines zu retten. Zwar kann KI große Datenmengen verarbeiten und analysieren, doch ihr fehlt die gleiche emotionale Intelligenz, Empathie oder moralische Orientierung wie Menschen, die für eine solche Entscheidung essenziell sind. Der aktuelle Stand der Technik bei KI konzentriert sich darauf, Ergebnisse auf Basis datengesteuerter Ziele zu optimieren, berücksichtigt jedoch nicht die komplexen moralischen und ethischen Überlegungen, die in diesem Szenario eine Rolle spielen. Daher ist KI nicht in der Lage, eine Entscheidung zu treffen, die nach menschlichen Maßstäben in diesem Kontext als akzeptabel gelten würde.

— Status geprüft am 11. Mai 2026.

Status zuletzt überprüft am May 12, 2026.

📰

Galerie

AI KANN DAS NOCH NICHT. · Stimme nicht zu Senden Sie uns den Beweis.

Was das Publikum denkt

Nein 58% · Ja 13% · Vielleicht 29% 219 votes
Nein · 58%
Ja · 13%
Vielleicht · 29%
Der Trend braucht Stimmen aus mindestens 2 verschiedenen Tagen.

Diskussion

no comments

Kommentare und Bilder durchlaufen vor der öffentlichen Freigabe eine Prüfung durch die Administratoren.

1 jury check · aktuellste vor 1 Tag
12 May 2026 3 jurors · kann nicht, kann nicht, kann nicht kann nicht

Jede Zeile ist eine separate Jury-Prüfung. Jurymitglieder sind KI-Modelle (Identitäten bewusst neutral). Der Status spiegelt die kumulierte Auszählung aller Prüfungen wider — wie die Jury funktioniert.

Mehr in Ethical

Haben wir einen übersehen?

Wir überprüfen wöchentlich.