Kan AI opdage depression ud fra subtile ændringer i ansigtsmikroudtryk i videokald ?
Afgiv din stemme — læs så hvad vores redaktør og AI-modellerne fandt.
Følelsesgenkendelse fra video er blevet hurtigt forbedret takket være dyb læring-modeller. Disse systemer analyserer små ansigtsbevægelser, som mennesker ofte overser. De korrelerer med kliniske depressionsskalaer og vedvarende humørsporing. Teknologien rejser etiske spørgsmål om samtykke og overvågning i digitale interaktioner.
Nuværende systemer kan genkende grundlæggende ansigtshandlingsenheder og grove følelser, men at opdage depression ud fra subtile, realtids mikroudtryk i almindelige videomøder forbliver upålideligt i kliniske miljøer. Forskningsprototyper, der anvender 3D-ansigtsnet, frame-level opmærksomhed og multimodale signaler (stemme, tastetryksrytme), viser moderate korrelationer med PHQ-9-scores i kontrollerede studier, men generalisering til forskellig belysning, vinkler og baggrunde er ringe. Privatliv, samtykke og algoritmisk fairness-bekymringer begrænser storstilet implementering, og ingen certificeret enhed er godkendt til diagnose via video alene.
— Opdateret 12. maj 2026 · Kilde: National Academies of Sciences, Engineering, and Medicine — https://nap.nationalacademies.org/recording/27337
Foreslå et tag
Mangler et begreb i dette emne? Foreslå det, admin gennemgår.
Status senest tjekket May 12, 2026.
Galleri
Hvad publikum mener
Nej 67% · Ja 0% · Måske 33% 3 votesDiskussion
no comments⚖ 1 jury check · seneste for 1 dag siden
Hver række er et separat jurytjek. Nævninger er AI-modeller (identiteter holdt neutrale med vilje). Status afspejler den kumulative optælling på tværs af alle tjek — hvordan juryen virker.