Un deepfake est un contenu médiatique (video, audio, image) génère ou manipule par l'IA pour être faux mais convaincant. En 2026, la technologie a atteint un niveau ou il est souvent impossible à l'oeil nu de distinguer un deepfake d'un contenu authentique.
Les deepfakes peuvent reproduire le visage et la voix de n'importe qui. Des logiciels accessibles permettent de créer un deepfake video convaincant en quelques minutes avec juste une photo et quelques secondes d'audio.
Des vidéos deepfake de dirigeants politiques peuvent être diffusees pour influencer des elections, créer des crises diplomatiques ou manipuler l'opinion publique. En période electorale, un deepfake viral peut atteindre des millions de personnes avant d'être dementi.
Les deepfakes audio sont utilisés pour des arnaques telephoniques : un faux appel de votre PDG vous demandant un virement urgent, une fausse voix d'un proche en detresse. En 2025, les pertes liées aux arnaques par deepfake ont depasse 25 milliards de dollars dans le monde.
Des deepfakes pornographiques non consentis touchent majoritairement les femmes. Ce phénomène a conduit a de nouvelles législations dans de nombreux pays, dont la France et les États-Unis.
En 2025, le nombre de deepfakes détectés en ligne a augmente de 900% par rapport à 2020. 96% des deepfakes video sont de nature pornographique non consentie.
Plusieurs stratégies existent : le watermarking IA (marques invisibles intégrées dans le contenu génère), les outils de détection (Microsoft Vidéo Authenticator, Intel FakeCatcher), la vérification des sources, et la litteratie médiatique.
Avant de partager une video choquante, verifiez la source. Utilisez la recherche inversee d'image et consultez les sites de fact-checking. Si c'est trop choquant pour être vrai, ca ne l'est peut-être pas.
Le meilleur rempart contre les deepfakes est l'esprit critique. Questionnez systématiquement les contenus surprenants, verifiez les sources et ne partagez pas de contenu dont vous n'etes pas certain de l'authenticite.
Types de Deepfakes et Risques
Vidéo
Manipulation politique, reputation
Audio
Arnaques, faux appels urgents
Image
Faux documents, usurpation
Texte
Désinformation a grande échelle
4 questions — 70% pour valider ce chapitre