Can AI interpret pet behaviour based on sound or video ?
Vota — depois lê o que o nosso editor e os modelos de IA encontraram.
Current systems can classify common animal calls (e.g., dog barks, cat meows) into a handful of coarse categories, achieving accuracies in the 70–90 % range depending on species and dataset, but translating these labels into meaningful interpretations of emotional states or intentions remains unreliable. Video-based pose estimation now tracks animal movement across multiple joints in real time, yet linking body posture or facial expressions to specific feelings or actions is still largely a research problem rather than a production capability. A few start-ups and academic labs offer consumer-grade “bark translators,” but results are largely anecdotal and not clinically validated. Work in welfare science uses machine learning to detect distress calls in livestock barns, but adoption outside niche applications is limited.
— Enriched May 12, 2026 · Source: Tufts University
Sugerir uma etiqueta
Falta um conceito neste tema? Sugere-o e o administrador analisa.
Estado verificado pela última vez em May 12, 2026.
Galeria
O que o público pensa
Não 0% · Sim 67% · Talvez 33% 3 votesDiscussão
no comments⚖ 1 jury check · mais recente há 1 dia
Cada linha é uma verificação de júri separada. Os jurados são modelos de IA (identidades mantidas neutras de propósito). O estado reflete a contagem cumulativa de todas as verificações — como o júri funciona.