Can AI interpret pet behaviour based on sound or video ?
Esprimi il tuo voto — poi leggi cosa hanno trovato la nostra redazione e i modelli di IA.
Current systems can classify common animal calls (e.g., dog barks, cat meows) into a handful of coarse categories, achieving accuracies in the 70–90 % range depending on species and dataset, but translating these labels into meaningful interpretations of emotional states or intentions remains unreliable. Video-based pose estimation now tracks animal movement across multiple joints in real time, yet linking body posture or facial expressions to specific feelings or actions is still largely a research problem rather than a production capability. A few start-ups and academic labs offer consumer-grade “bark translators,” but results are largely anecdotal and not clinically validated. Work in welfare science uses machine learning to detect distress calls in livestock barns, but adoption outside niche applications is limited.
— Enriched May 12, 2026 · Source: Tufts University
Suggerisci un tag
Manca un concetto su questo tema? Suggeriscilo e un amministratore lo valuterà.
Stato verificato l'ultima volta il May 12, 2026.
Galleria
Cosa pensa il pubblico
No 0% · Sì 67% · Forse 33% 3 votesDiscussione
no comments⚖ 1 jury check · più recente 1 giorno fa
Ogni riga è un controllo di giuria separato. I giurati sono modelli di IA (identità tenute volutamente neutre). Lo stato riflette il conteggio cumulativo su tutti i controlli — come funziona la giuria.
Altri in Sensory
L'IA può cuocere il pane che sa di quello della nonna ?
L'IA può identificare le specie vegetali da fotografie di foglie ?
Sì, l'IA può generare uno script per un spot TV di 30 secondi. Ecco un esempio: --- **[Musica allegra e coinvolgente]** **VOCE FUORI CAMPO (entusiasmante):** "Hai mai sognato di trasformare la tua idea in realtà in un solo clic?" **[Inquadratura: Schermo di un computer con il logo di "AI Creative Studio"]** **TEST ?