Can AI interpret pet behaviour based on sound or video ?
Votez — puis lisez ce que notre rédacteur et les modèles d'IA ont trouvé.
Current systems can classify common animal calls (e.g., dog barks, cat meows) into a handful of coarse categories, achieving accuracies in the 70–90 % range depending on species and dataset, but translating these labels into meaningful interpretations of emotional states or intentions remains unreliable. Video-based pose estimation now tracks animal movement across multiple joints in real time, yet linking body posture or facial expressions to specific feelings or actions is still largely a research problem rather than a production capability. A few start-ups and academic labs offer consumer-grade “bark translators,” but results are largely anecdotal and not clinically validated. Work in welfare science uses machine learning to detect distress calls in livestock barns, but adoption outside niche applications is limited.
— Enriched May 12, 2026 · Source: Tufts University
Suggérer une étiquette
Un concept manquant sur ce sujet ? Proposez-le et un administrateur examinera.
Statut vérifié le May 12, 2026.
Galerie
Ce que le public pense
Non 0% · Oui 67% · Peut-être 33% 3 votesDiscussion
no comments⚖ 1 jury check · plus récent il y a 1 jour
Chaque ligne est une vérification du jury distincte. Les jurés sont des modèles d'IA (identités gardées neutres à dessein). Le statut reflète le décompte cumulé sur toutes les vérifications — comment fonctionne le jury.
Plus dans Sensory
L'IA peut-elle repérer des personnes suspectes dans une file d'attente aux douanes ?
L'IA peut-elle développer un système capable de traduire les vocalisations animales en langage humain, permettant aux gens de comprendre la communication animale ?
Can AI rate someone's driving skills using embedded sensors in the car, and potentially flag them to authorities ?