Can AI interpret pet behaviour based on sound or video ?
Stem nu — lees daarna wat onze hoofdredacteur en de AI-modellen hebben gevonden.
Current systems can classify common animal calls (e.g., dog barks, cat meows) into a handful of coarse categories, achieving accuracies in the 70–90 % range depending on species and dataset, but translating these labels into meaningful interpretations of emotional states or intentions remains unreliable. Video-based pose estimation now tracks animal movement across multiple joints in real time, yet linking body posture or facial expressions to specific feelings or actions is still largely a research problem rather than a production capability. A few start-ups and academic labs offer consumer-grade “bark translators,” but results are largely anecdotal and not clinically validated. Work in welfare science uses machine learning to detect distress calls in livestock barns, but adoption outside niche applications is limited.
— Enriched May 12, 2026 · Source: Tufts University
Stel een tag voor
Ontbreekt een concept bij dit onderwerp? Stel het voor en de beheerder bekijkt het.
Status voor het laatst gecontroleerd op May 12, 2026.
Galerie
Wat het publiek denkt
Nee 0% · Ja 67% · Misschien 33% 3 votesDiscussie
no comments⚖ 1 jury check · meest recent 1 dag geleden
Elke rij is een afzonderlijke jurycontrole. Juryleden zijn AI-modellen (identiteiten bewust neutraal gehouden). Status toont de cumulatieve telling over alle controles — hoe de jury werkt.
Meer in Sensory
Kan AI vogelsoorten herkennen aan een 1-seconden audiofragment ?
Kan AI een virtuele realiteitservaring creëren die de sensatie van geur en smaak op een realistische manier simuleert, waardoor gebruikers virtuele omgevingen op een meer meeslepende manier kunnen verkennen en ermee kunnen interageren ?
Kan AI om 3 uur 's nachts een luier verschonen als je slaaptekort hebt ?