Elisabeth, princesse de Belgique, vit aux USA. Désormais, des photos et des vidéos suggestives circulent et sont censées montrer le joueur de 24 ans. Le palais intervient. Le Grenz-Echo est l’un des rares médias à commettre un faux pas en publiant quand même l’un des faux d’IA.
Le Palais Royal a pris des mesures contre les photos et vidéos suggestives prétendant montrer la princesse Elizabeth. Des contenus générés à l’aide de l’intelligence artificielle (IA) sont apparus sur Internet et semblaient montrer l’héritier du trône belge de 24 ans.
Le site d’information RTL Info a rapporté qu’un compte correspondant avait rassemblé plus de 28 000 abonnés sur les réseaux sociaux. L’une des vidéos montrerait la jeune femme en train de danser devant les bars.

Le Grenz-Echo est de toute façon l’un des rares médias à avoir publié l’un des deepfakes. Même le journal « Bild » n’a pas fait cela. Exprimer son indignation tout en publiant l’image contrefaite en question pour qu’elle soit visible par le plus grand nombre de lecteurs est une démarche quelque peu douteuse.
Par ailleurs, le Palais Royal a confirmé mardi avoir pris toutes les mesures nécessaires. « Entre-temps, la publication a été bloquée sur le compte d’origine. »
La princesse Elisabeth étudie actuellement un master en « politiques publiques » à la célèbre université américaine de Harvard. En juillet 2024, la duchesse de Brabant a obtenu sa licence en « Histoire et politique » à l’Université d’Oxford en Grande-Bretagne.
Les images, vidéos et enregistrements audio faussement réels, générés ou manipulés par l’IA sont généralement appelés deepfakes (voir le mot-clé ci-dessous).
Mot-clé : deepfake
Un deepfake est un contenu médiatique créé ou manipulé à l’aide de l’intelligence artificielle, dans lequel des images, des vidéos ou des enregistrements sonores sont modifiés de manière à paraître trompeusement réels même s’ils ne correspondent pas à la réalité.

Grâce à des méthodes d’apprentissage spéciales, des visages sont échangés, des expressions faciales sont ajustées ou des voix sont imitées. La technologie repose généralement sur de grandes quantités de données et sur des réseaux dits neuronaux capables de reconnaître et de recréer des modèles.
Les deepfakes sont utilisés dans le cinéma, le divertissement et la recherche, par exemple pour le rajeunissement numérique des acteurs ou pour les effets spéciaux. En même temps, ils comportent des risques : ils peuvent être utilisés à des fins de désinformation, de fraude ou d’atteinte à la réputation, par exemple lorsque des personnes semblent dire ou faire des choses qui ne se sont jamais produites. Les deepfakes sont donc de plus en plus au centre de l’attention des politiques, des médias et de la recherche, qui travaillent sur des méthodes de détection et des règles permettant de traiter de tels contenus. (dpa/cré)