Deepfakes: des contenus toujours plus réalistes, le Danemark prépare une loi pour encadrer leur diffusion
Introduction : Des chercheurs signalent des progrès techniques qui rendent certains deepfakes (images, vidéos, audios truqués par IA) plus difficiles à détecter. En réaction, des États affinent leurs réponses: le Danemark prévoit d’interdire le partage de deepfakes portant atteinte aux personnes, tandis que l’éducation aux médias est renforcée en Europe. (courrierinternational.com)
Faits vérifiés
Selon un article de Courrier international (27 mai 2025), des deepfakes peuvent désormais imiter de micro-variations de couleur de la peau liées au pouls, un indice physiologique jusque-là exploité par des détecteurs, ce qui complique l’identification des faux. De son côté, Euronews (28 juin 2025) rapporte que le Danemark prépare une loi visant à rendre illégale la diffusion d’hypertrucages (deepfakes) portant atteinte à “son propre corps et à sa propre voix”, avec un large soutien parlementaire. (courrierinternational.com)
Développement
• Recherche et détection: L’équipe citée par Courrier international (université Humboldt) montre que certaines IA savent reproduire le “rythme” cutané du visage (lié aux battements cardiaques), induisant en erreur des détecteurs automatiques. Cette avance technique rappelle que la détection doit combiner indices visuels, sonores et contextuels, et non reposer sur un seul signal. (courrierinternational.com)
• Réponse politique: Le projet danois présenté fin juin 2025 veut protéger la “voix” et “l’image” des personnes contre les imitations numériques, tout en ménageant des exceptions pour la satire et la parodie. Le texte pourrait être adopté fin 2025 ou début 2026, sous réserve de compatibilité avec le droit européen. (fr.euronews.com)
• Enjeux sociétaux: Euronews a aussi documenté l’essor de présentateurs de JT générés par IA et des usages étatiques de ces outils pour la propagande, tandis que la Finlande renforce l’éducation aux médias (EMI) à l’école pour armer les élèves face aux infox et deepfakes. (fr.euronews.com)
• Exemples récents: Des vidéos hyperréalistes circulent régulièrement en ligne. 7sur7 a relayé en mai 2025 les doutes autour d’une séquence montrant Donald Trump “buvant un café” en Arabie saoudite, utilisée pour illustrer la difficulté du public à trancher sans vérification. Dans un autre registre, des deepfakes pornographiques touchent aussi des personnalités, illustrant le risque d’atteinte à l’intimité. (7sur7.be)
Désinformation et rumeurs
- Des vidéos virales truquées peuvent faire croire qu’une personne a dit/fait quelque chose qu’elle n’a jamais dit/fait. Les détecter exige de recouper la source, le contexte (lieu/date) et les versions originales. (fr.euronews.com)
- Des exemples sexuellement explicites (deepnude/deepfake) visent à humilier des femmes et à diffuser des images non consenties; plusieurs pays légifèrent déjà contre ces contenus. (fr.euronews.com)
- Des cas viraux (ex. “Trump au café”) montrent qu’un clip isolé, sans provenance claire ni version intégrale, ne suffit pas pour conclure: il faut rechercher l’extrait original, la chaîne émettrice et des témoins indépendants. (7sur7.be)
Quiz interactif EMI
Réponds puis clique pour vérifier :
Lexique
- Désinformation : Information fausse ou trompeuse diffusée intentionnellement pour manipuler l’opinion.
- Deepfake (hypertrucage) : Média (image, vidéo, audio) synthétique imitant l’apparence ou la voix de quelqu’un de façon réaliste grâce à l’IA.
- Lecture latérale : Technique consistant à ouvrir d’autres onglets pour vérifier qui publie, comparer avec plusieurs sources fiables et remonter à l’original.
Exercice EMI
Choisis une courte vidéo virale suspecte. 1) Note la source, la date et le lieu revendiqués. 2) Cherche la version originale (moteurs de recherche vidéo, comptes officiels). 3) Compare avec au moins deux médias fiables. 4) Liste trois indices techniques (incohérences de lumière/ombres, artefacts audio, gestes “impossibles”). 5) Conclus: partage ou non, et pourquoi.
Je m’auto-évalue
- [ ] J’ai identifié clairement la source et la date.
- [ ] J’ai comparé avec au moins deux médias fiables.
- [ ] J’ai vérifié s’il existe une version originale/intégrale.
- [ ] J’ai reformulé avec mes mots ce que j’ai appris.
Sources (sélection) — Courrier international (recherche deepfakes, 27 mai 2025) ; Euronews (projet de loi danois, 28 juin 2025 ; présentateurs IA et usages étatiques, 1er août 2025 ; EMI en Finlande, 19 août 2025) ; 7sur7 (exemples viraux/deepfakes, mai 2025). (courrierinternational.com)
Catégorie : Fact checking et désinformation


