Stuff AI CAN'T Do

Can AI interpret pet behaviour based on sound or video ?

¿Qué opinas?

Current systems can classify common animal calls (e.g., dog barks, cat meows) into a handful of coarse categories, achieving accuracies in the 70–90 % range depending on species and dataset, but translating these labels into meaningful interpretations of emotional states or intentions remains unreliable. Video-based pose estimation now tracks animal movement across multiple joints in real time, yet linking body posture or facial expressions to specific feelings or actions is still largely a research problem rather than a production capability. A few start-ups and academic labs offer consumer-grade “bark translators,” but results are largely anecdotal and not clinically validated. Work in welfare science uses machine learning to detect distress calls in livestock barns, but adoption outside niche applications is limited.

— Enriched May 12, 2026 · Source: Tufts University

Estado verificado por última vez en May 12, 2026.

📰

Galería

AI TAL VEZ puede hacer esto — en disputa · envíenos pruebas

Lo que el público piensa

No 0% · Sí 67% · Quizás 33% 3 votes
Sí · 67%
Quizás · 33%
24 days of activity

Discusión

no comments

Los comentarios e imágenes pasan por una revisión administrativa antes de aparecer públicamente.

1 jury check · más reciente hace 1 día
12 May 2026 3 jurors · puede, no puede, puede indeciso

Cada fila es una comprobación de jurado independiente. Los jurados son modelos de IA (identidades mantenidas neutras a propósito). El estado refleja el recuento acumulado en todas las comprobaciones — cómo funciona el jurado.

Más en Sensory

¿Nos faltó uno?

Revisamos semanalmente.