🔥 Hot topics · Recente omslagen · 📈 Tijdlijn · Vraag · Redactionele stukken · 🔥 Hot topics · Recente omslagen · 📈 Tijdlijn · Vraag · Redactionele stukken
Stuff AI CAN'T Do

Kan AI een nepvideo (deepfake) maken van een specifiek persoon die iets zegt ?

Wat denk je?

De proliferatie van deepfake-technologie heeft desinformatie gedemocratiseerd, waardoor hyperrealistische videovervalsingen mogelijk zijn. AI-systemen kunnen nu op maat gemaakte valse content creëren die is afgestemd op iemands stem, manier van doen en context. Dit ondermijnt het vertrouwen in digitale media en maakt intimidatie, chantage en politieke manipulatie mogelijk. Platforms hebben moeite om dergelijke bedreigingen op grote schaal te detecteren en te beperken.


Huidige systemen kunnen zeer realistische "pratende hoofden"-video's genereren die iemands gezicht synchroniseren met een nieuwe stem en script, maar het produceren van een aangepaste deepfake die overtuigend een specifiek persoon iets laat zeggen, vereist zowel een duidelijk, hoogwaardig beeld of korte video van het doelwit als een robuust audiosample dat hun vocale patronen vastlegt. Technieken zoals diffusiemodellen (bijv. Stable Diffusion Video, Runway Gen-2) en op GAN gebaseerde methoden (bijv. StyleGAN, DeepFaceLab) zijn zo ver gevorderd dat korte clips met lip-sync en gezichtsbewegingen mogelijk zijn, maar artefacten, lichtinconsistenties en temporele inconsistenties verraden nog steeds de synthetische oorsprong voor getrainde waarnemers. Ethische en juridische kaders, waaronder detectietools en content provenance-standaarden zoals C2PA, worden ontwikkeld maar voorkomen misbruik nog niet volledig. Generatieve AI in dit domein blijft zich snel ontwikkelen, wat voortdurende uitdagingen vormt voor verificatie en vertrouwen.

— Verrijkt 12 mei 2026 · Bron: U.S. Department of Commerce — https://ntia.doc.gov/files/ntia/publications/2022_commerce_deepfakes_report.pdf

Status voor het laatst gecontroleerd op May 12, 2026.

📰

Galerie

AI MISSCHIEN kan dit — betwist · Stuur ons bewijs

Wat het publiek denkt

Nee 67% · Ja 33% · Misschien 0% 3 votes
Nee · 67%
Ja · 33%
21 days of activity

Discussie

no comments

Opmerkingen en afbeeldingen gaan door een beoordeling door de beheerder voordat ze publiek verschijnen.

1 jury check · meest recent 1 dag geleden
12 May 2026 3 jurors · kan, kan niet, kan onbeslist

Elke rij is een afzonderlijke jurycontrole. Juryleden zijn AI-modellen (identiteiten bewust neutraal gehouden). Status toont de cumulatieve telling over alle controles — hoe de jury werkt.

Meer in technology

Hebben we er één gemist?

We review weekly.