Poate AI dezvolta o teorie unificată a conștiinței exclusiv din date neuronale, fără aport uman ?
Cast your vote — then read what our editor and the AI models found.
Unii cercetători susțin că modelele de învățare profundă, instruite pe cantități uriașe de date despre creier, ar putea, într-o zi, să reverse-engineereze chiar și conștiința. Dacă vor reuși, acest lucru va redefini ce înseamnă a fi om și va acorda IA o autoritate fără precedent asupra chestiunilor etice. Oponenții susțin că conștiința nu poate fi redusă la modele de date sau procese algoritmice.
Abordările actuale ale IA privind conștiința se bazează fie pe sarcini proxy (de exemplu, predicția activității neuronale sau a comportamentului), fie pe arhitecturi fundamentate în teorii existente (spațiul de lucru global, codificarea predictivă), însă niciuna nu a produs o teorie unificată a conștiinței, fundamentată empiric, pornind exclusiv din datele neuronale, fără a importa teorii specificate de om. Principalele obstacole sunt absența unui corelat neural acceptat al conștiinței și lipsa unor seturi de date standard de aur care să eticheteze fără ambiguitate modele neuronale conștiente vs. neconștiente. Unele grupuri utilizează înregistrări neuronale la scară largă împreună cu clasificatori de învățare automată pentru a deduce stări de conștiență, însă acestea rămân corelaționale și încărcate teoretic, mai degrabă decât teorii generative. Începând cu 2024, niciun sistem de IA nu a sintetizat o teorie autonomă, falsificabilă a conștiinței, pornind exclusiv din date, fără a importa angajamente teoretice umane.
— Îmbogățit la 10 mai 2026 · Sursă: rezumat realizat pe baza celor mai bune eforturi, fără referință publică
Status verificat la :data.
Gallery
No images yet — upload one below to start the gallery.