DeepNude, quand l’IA nous met en danger
Un nouveau programme de modification d’image, baptisé DeepNude par son auteur, permet (vous l’aviez déjà compris) de « mettre à nu » des personnes prises en photo.
Les « DeepNudes » sont une nouvelle variante des « DeepFakes », ces faux contenus (images, vidéos…) basés sur des médias réels mais modifiés via Intelligence Artificielle et utilisés à des fins pornographiques, de propagande ou de canular.
L’I.A. utilisée à la base – Pix2pix – permet de transformer des images, en ajoutant de la couleur à une photo en noir et blanc par exemple (je vous laisse suivre le lien pour découvrir ses possibilités). L’auteur anonyme de DeepNude a entraîné cette IA avec des images de femmes nues pour lui permettre de recréer artificiellement les parties du corps cachées par les vêtements. La version pour les hommes est en préparation… pas de sexisme !
Le résultat est plus ou moins réaliste, mais certaines images seraient suffisamment trompeuses pour permettre un chantage ou du harcèlement. En cas de doute sur une photo, je vous recommande d’utiliser un outil comme TinEye, qui cherchera pour vous l’image originale sur internet.
Dans tous les cas, soyez prudent en toute circonstance concernant ce que vous postez (en public ou non) et ne faites pas trop confiance à ce que vous voyez.