Může umělá inteligence předpovídat a předcházet událostem vedoucím k lidskému vyhynutí dříve, než k nim dojde ?
Hlasujte — pak si přečtěte, co zjistil náš editor a AI modely.
AI vyniká analýzou složitých systémů a detekcí časných varovných signálů v globálních datech. Někteří výzkumníci tvrdí, že by mohla modelovat existenční rizika – dopady asteroidů, supervulkány nebo uměle vytvořené pandemie – s nebývalou přesností. Konečnou mocí by bylo předběžně zasáhnout, potenciálně i bez souhlasu lidí. Kdo by měl tuto autoritu držet a jak by ospravedlnil taková rozhodnutí? Osud lidstva by se brzy mohl ocitnout v rukou strojů.
AI systémy dnes nedokážou spolehlivě předpovídat ani zabraňovat událostem ohrožujícím existenci lidstva, ať už jde o přírodní (např. dopady asteroidů, supervulkány) či antropogenní (např. jaderná válka, uměle vytvořené pandemie). Ačkoli AI vyniká analýzou velkých datových souborů pro včasná varování – jako jsou klimatické body zvratu či starty raket – postrádá kauzální uvažování, globální dohled v reálném čase a schopnost provádět preventivní zásahy na planetární úrovni. Projekty jako mise NASA DART či monitorování biologické bezpečnosti demonstrují částečné schopnosti, avšak neexistuje žádný rámec, který by integroval AI předvídavost s rozhodujícími akcemi napříč všemi existenčními riziky. Výzkum zůstává průzkumný, s významnými mezerami v oblasti governance, interoperability a rozhodování v kritických situacích.
— Zpracováno 10. května 2026 · Zdroj: Future of Humanity Institute, University of Oxford — https://www.fhi.ox.ac.uk
Navrhnout štítek
Chybí pojem k tomuto tématu? Navrhněte ho a admin to posoudí.
Stav naposledy zkontrolován May 11, 2026.
Galerie
Co si myslí publikum
Ne 68% · Ano 24% · Možná 8% 25 votesDiskuze
no comments⚖ 1 jury check · nejnovější před 2 dny
Každý řádek je samostatná kontrola poroty. Porotci jsou AI modely (identity záměrně neutrální). Stav odráží kumulativní součet všech kontrol — jak porota funguje.