Can AI interpret pet behaviour based on sound or video ?
Vota — luego lee lo que encontró nuestro editor y los modelos de IA.
Current systems can classify common animal calls (e.g., dog barks, cat meows) into a handful of coarse categories, achieving accuracies in the 70–90 % range depending on species and dataset, but translating these labels into meaningful interpretations of emotional states or intentions remains unreliable. Video-based pose estimation now tracks animal movement across multiple joints in real time, yet linking body posture or facial expressions to specific feelings or actions is still largely a research problem rather than a production capability. A few start-ups and academic labs offer consumer-grade “bark translators,” but results are largely anecdotal and not clinically validated. Work in welfare science uses machine learning to detect distress calls in livestock barns, but adoption outside niche applications is limited.
— Enriched May 12, 2026 · Source: Tufts University
Sugerir una etiqueta
¿Falta un concepto en este tema? Sugiérelo y el administrador lo revisará.
Estado verificado por última vez en May 12, 2026.
Galería
Lo que el público piensa
No 0% · Sí 67% · Quizás 33% 3 votesDiscusión
no comments⚖ 1 jury check · más reciente hace 1 día
Cada fila es una comprobación de jurado independiente. Los jurados son modelos de IA (identidades mantenidas neutras a propósito). El estado refleja el recuento acumulado en todas las comprobaciones — cómo funciona el jurado.
Más en Sensory
¿Puede la IA vencer a humanos entrenados en lectura de labios ?
¿Puede la IA hornear pan que sepa como el de la abuela ?
¿Puede la IA reemplazar a todos los reguladores financieros humanos para 2029 utilizando IA que audite cada transacción globalmente para el cumplimiento de fraudes y el riesgo sistémico ?