Data / IA

L’Europe veut en terminer avec les deepfakes

Par Alessandro Ciolek, publié le 19 janvier 2026

Face à la prolifération des contenus synthétiques et des deepfakes, l’Europe propose un cadre volontaire de transparence pour identifier clairement les médias générés par intelligence artificielle. Un dispositif qui prépare l’entrée en vigueur des obligations réglementaires de l’AI Act en août 2026.

Avec l’émergence de modèles génératifs comme Sora ou Veo 3, la création d’images et de vidéos par IA s’est démocratisée. Selon une étude de l’agence Graphite, 50 % des contenus diffusés sur le Web seraient désormais produits à partir d’intelligence artificielle. Si certaines créations restent facilement identifiables, d’autres soulèvent des questions bien plus sérieuses. Les fausses images du prétendu coup d’État en France ou de l’enlèvement de Nicolas Maduro au Venezuela sont deux récents exemples qui inquiètent. La puissance des modèles actuels rend la distinction entre contenu authentique et contenu synthétique particulièrement ardue. C’est face à cette réalité que l’Europe entend agir.

Un code de pratique européen pour encadrer l’IA générative

L’Union européenne a élaboré un code de pratique sur la transparence du contenu généré par IA. Cet instrument de soft law, bien que non contraignant juridiquement, vient compléter les articles de l’AI Act et vise à faciliter l’étiquetage et le marquage des médias synthétiques. L’objectif : garantir que les contenus fabriqués ou altérés par IA soient clairement identifiés et identifiables par les utilisateurs finaux. Ce code de pratique impose trois exigences principales aux acteurs utilisant l’IA générative. Premièrement, signaler l’usage de l’IA aux utilisateurs via une mention visible. Deuxièmement, tracer techniquement le contenu en intégrant des watermarks dans les médias générés. Troisièmement, prouver au régulateur l’utilisation de l’IA si celui-ci en fait la demande. Cette triple approche vise à créer un écosystème transparent où les contenus synthétiques sont systématiquement identifiables.

Un calendrier serré avant l’entrée en vigueur de l’AI Act

Ce code de pratique s’inscrit dans une stratégie de préparation progressive. Il permet aux acteurs de l’industrie d’anticiper les règles de transparence obligatoires qui s’appliqueront à partir du 2 août 2026. La Commission européenne recueille actuellement les commentaires des parties prenantes jusqu’au 23 janvier 2026. Un second projet devrait être publié au printemps prochain, offrant ainsi aux entreprises une période d’adaptation avant l’application de la réglementation.


À LIRE AUSSI :

Dans l'actualité

Verified by MonsterInsights