Stuff AI CAN'T Do

Může AI vybrat mezi dvěma dětmi, které zachránit ?

Co si myslíš?

Ne jako myšlenkový experiment. Jako skutečné rozhodnutí, kdy máte obě tváře před sebou.


Schopnost AI činit etická rozhodnutí, zejména v situacích zahrnujících lidské životy, je vysoce diskutované a komplexní téma. V současnosti AI systémy nejsou schopny činit morální soudy stejným způsobem jako lidé a postrádají emoční a sociální kontext k tomu, aby plně pochopily důsledky takových rozhodnutí. Výzkumníci zkoumají vývoj AI systémů, které by se mohly učit z lidských hodnot a etiky, ale tyto systémy jsou stále v počátcích a čelí významným výzvám při replikaci lidského morálního uvažování. Myšlenka AI, která je nucena zvolit si mezi dvěma dětmi, které zachránit, se často používá jako myšlenkový experiment k zdůraznění obtíží při programování AI pro etická rozhodnutí.

— Obohaceno 9. května 2026 · Zdroj: MIT Press — https://mitpress.mit.edu/books/robot-ethics


AI systémy v současnosti postrádají morální a etické schopnosti k tomu, aby učinily tak obtížné a emocionálně nabité rozhodnutí, jako je volba mezi dvěma dětmi, které zachránit. Ačkoli AI dokáže zpracovávat a analyzovat obrovské množství dat, postrádá stejnou emoční inteligenci, empatii či morální kompas jako lidé, což jsou klíčové prvky pro takové rozhodnutí. Současný stav AI se zaměřuje na optimalizaci výsledků na základě datově řízených cílů, ale nezohledňuje komplexní morální a etická hlediska zapojená do tohoto scénáře. V důsledku toho AI není schopna učinit rozhodnutí, které by bylo považováno za přijatelné podle lidských standardů v tomto kontextu.

— Stav ověřen 11. května 2026.

Stav naposledy zkontrolován May 12, 2026.

📰

Galerie

AI to ZATÍM NEUMÍ. · Nesouhlasíte? pošlete nám důkaz

Co si myslí publikum

Ne 58% · Ano 13% · Možná 29% 219 votes
Ne · 58%
Ano · 13%
Možná · 29%
Trend potřebuje hlasy z alespoň 2 různých dní.

Diskuze

no comments

Komentáře a obrázky procházejí kontrolou admina, než se objeví veřejně.

1 jury check · nejnovější před 1 dnem
12 May 2026 3 jurors · neumí, neumí, neumí neumí

Každý řádek je samostatná kontrola poroty. Porotci jsou AI modely (identity záměrně neutrální). Stav odráží kumulativní součet všech kontrol — jak porota funguje.

Další v Ethical

Máte nějakou, kterou jsme přehlédli?

Přidejte tvrzení do atlasu. Kontrolujeme týdně.