LIBREVILLE, le 22 octobre 2025 (AGP) – L’Union des agences de presse des États membres de l’Organisation de la coopération islamique (UNA) a organisé, le lundi 20 octobre 2025, en collaboration avec l’Agence de presse russe Sputnik, un atelier virtuel intitulé « Comment identifier les deepfakes grâce à l’IA ». L’événement a réuni des représentants d’agences de presse des États membres de l’OCI ainsi qu’un large panel de professionnels des médias.
Dans son allocution d’ouverture, le Directeur général de l’UNA, Mohammed Al-Yami, a souligné que les technologies de falsification profonde (deepfake) représentent, depuis leur apparition, une menace croissante pour la véracité de l’information. Cette menace, a-t-il indiqué, s’est accentuée avec le développement rapide des applications d’intelligence artificielle et l’intégration, dans certaines d’entre elles, telles que Sora, de fonctionnalités permettant la création de vidéos courtes et réalistes, difficilement distinguables des originales, et largement diffusées sur les réseaux sociaux.
Al-Yami a reconnu que ces outils peuvent offrir des avantages dans des domaines tels que le design créatif, mais a mis en garde contre leurs dérives dans le secteur médiatique. Selon lui, ces technologies favorisent la fabrication d’informations et la propagation de rumeurs, compromettant ainsi la fiabilité des sources d’information et déformant l’espace public.
Il a précisé que la volonté de faire face à ces défis a motivé l’organisation de cet atelier conjoint avec Sputnik, afin d’identifier les techniques de manipulation visuelle et de proposer des mécanismes concrets pour les détecter, tout en encourageant l’échange d’expériences entre les agences de presse sur l’usage responsable de l’intelligence artificielle.
Le Directeur général a exprimé l’espoir que cette rencontre atteindra ses objectifs et contribuera à renforcer la vigilance et la compétence des professionnels des médias face aux contenus générés par l’IA.
De son côté, Denis Lukyanov, rédacteur en chef des réseaux sociaux à l’Agence Sputnik, a présenté plusieurs méthodes permettant de repérer les falsifications d’images, tout en reconnaissant que la détection des manipulations dans les vidéos demeure plus complexe, en raison de la multiplication des outils et techniques disponibles.
Il a relevé que certaines vidéos ou images mettant en scène des animaux ou des enfants peuvent sembler authentiques, mais comportent des indices révélateurs de falsification. Parmi ces indices figurent notamment les incohérences d’ombres, de lumière et de reflets, l’intelligence artificielle échouant souvent à reproduire fidèlement les reflets naturels, en particulier dans les yeux, où apparaissent des ombres artificielles.
Selon lui, d’autres signes peuvent trahir une image truquée : le regard, la texture de la peau, la disposition des cheveux ou des dents, ainsi que les détails de l’arrière-plan, souvent flous ou mal définis. Il a également noté la tendance de l’IA à lisser excessivement la peau et à en altérer la couleur par rapport aux clichets originaux.
Lukyanov a mis en garde les journalistes contre la publication d’images falsifiées, qui pourrait porter atteinte à leur crédibilité et à celle de leurs institutions. Il a recommandé l’usage d’applications spécialisées pour vérifier l’authenticité des contenus visuels, notamment à travers l’examen des métadonnées, des descriptions, des dates, des sources et des lieux de prise de vue.
La tenue de cet atelier s’inscrit dans le cadre d’une série d’activités conjointes entre l’UNA et l’Agence Sputnik, visant à améliorer la production de contenu grâce à l’intelligence artificielle, à renforcer les capacités des professionnels des médias des États membres de l’OCI et à promouvoir une utilisation responsable des nouvelles technologies dans le domaine de l’information.
CBO/WM/AGP

Commentaires