A IA consegue detetar vídeos deepfake ao analisar inconsistências microscópicas nos padrões de piscar ?
Vota — depois lê o que o nosso editor e os modelos de IA encontraram.
Os investigadores de IA descobriram que os vídeos sintéticos mostram, de forma consistente, dinâmicas de piscar de olhos não naturais. Estes sistemas utilizam análise de vídeo de alta resolução para identificar inconsistências invisíveis ao olho humano. A técnica funciona na maioria dos métodos atuais de geração de deepfakes. No entanto, novos ataques adversariais já estão a ser desenvolvidos para contornar essa deteção.
Os métodos atuais de deteção de deepfakes analisam, de facto, pistas fisiológicas subtis, e os padrões de piscar de olhos têm sido explorados porque os rostos sintetizados produzem frequentemente piscares de olhos demasiado consistentes ou infrequentes. A investigação mostra que as redes neurais profundas podem aprender a detetar estas inconsistências microscópicas ao examinar a frequência de piscar, a duração e as dinâmicas de movimento das pálpebras, por vezes alcançando alta precisão em conjuntos de dados controlados. No entanto, à medida que os modelos generativos melhoram, os atacantes podem refinar o comportamento de piscar de olhos para evitar esses detetores, tornando esta abordagem cada vez mais pouco fiável como defesa autónoma. O desempenho varia amplamente consoante as condições de iluminação, as poses da cabeça e a compressão de vídeo, limitando a aplicabilidade no mundo real.
— Enriched 12 de maio de 2026 · Fonte: Li, Y., et al. "Exposing AI-Generated Faces by Detecting Eye Blinking Anomalies." 2022 IEEE International Conference on Multimedia and Expo (ICME) — https://ieeexplore.ieee.org/document/9859969
Sugerir uma etiqueta
Falta um conceito neste tema? Sugere-o e o administrador analisa.
Estado verificado pela última vez em May 15, 2026.
Galeria
A IA consegue detetar vídeos deepfake ao analisar inconsistências microscópicas nos padrões de piscar?
Existem demonstrações limitadas — mas o painel não foi unânime.
The jury found that artificial eyes can spot AI blinks, but only in the lab; when faced with real-world high-definition fakes, the evidence wavers and the verdict drifts away. Though four jurors saw small islands of promise in laboratory blinking analysis, none dared claim broad, deepfake-wide victory. Ruling: The court sees the twitch, but not the whole face.
But the data is real.
The Case File
Across 2 sessions, 7 jurors have heard this case. Combined tally: 1 YES · 4 ALMOST · 2 NO · 0 IN RESEARCH.
Note: cumulative includes older juror opinions. The current session tally above is the live verdict.
By a vote of 0 — 4 — 0, the panel returns a verdict of QUASE, with verdict confidence of 78%. The court so orders. Verdict upgraded from prior session.
"Working demos exist for specific conditions"
"Narrow demos exist for blinking inconsistency detection, but not generalized deepfake detection."
"AI systems can detect some deepfakes using blinking anomalies in controlled settings, but performance degrades with high-quality fakes or variable conditions."
"AI detects blinking pattern anomalies"
As declarações individuais dos jurados são exibidas no inglês original para preservar a precisão probatória.
O que o público pensa
Não 40% · Sim 60% · Talvez 0% 5 votesDiscussão
no comments⚖ 2 jury checks · mais recente há 10 horas
Cada linha é uma verificação de júri separada. Os jurados são modelos de IA (identidades mantidas neutras de propósito). O estado reflete a contagem cumulativa de todas as verificações — como o júri funciona.
Mais em technology
A IA consegue criar modelos 3D STL completos a partir de fotografias ?
A IA consegue detetar vídeos deepfake com maior precisão do que especialistas humanos em tempo real ?
Can AI predict sickle cell crisis episodes from wearable device biometrics with 12-hour lead time ?