Deepfakes sexuels, nudification, détournement de photos d’enfants : l’UNICEF alerte sur l’essor rapide de contenus pédopornographiques générés par l’intelligence artificielle. Ce phénomène massif touche déjà des millions de mineurs.

UNICEF met en garde contre la multiplication d’images sexuelles générées par l’IA, en particulier lorsque des photos d’enfants sont détournées et sexualisées. Grâce aux outils de deepfakes, des images ordinaires peuvent être transformées en contenus sexuels crédibles en quelques secondes, puis diffusées rapidement sur les réseaux sociaux. L’une des pratiques les plus répandues est la « nudification », qui consiste à enlever ou modifier artificiellement les vêtements sur des photos pour créer des images fictives de nudité.

Un phénomène massif

L’ampleur de la dérive est désormais documentée. Selon une enquête menée par l’UNICEF avec Interpol, « dans 11 pays au moins 1,2 million d’enfants auraient été victimes de cette pratique au cours de l’année passée », soit dans certains « l’équivalent d’un enfant par classe ». Les enfants eux-mêmes identifient clairement ce risque. Dans plusieurs pays, une large majorité d’entre eux dit craindre que l’IA puisse être utilisée pour créer de fausses images ou vidéos à caractère sexuel.

Des abus bien réels

Pour l’UNICEF, il n’existe aucune ambiguïté : « les images à caractère sexuel d’enfants générées ou modifiées à l’aide d’outils d’IA constituent du matériel pédopornographique ». L’organisation rappelle que « l’utilisation abusive des deepfakes est une forme d’abus, et le préjudice qu’elle cause n’a rien de fictif ». Même lorsqu’aucune victime n’est immédiatement identifiable, ces contenus contribuent à banaliser l’exploitation sexuelle des mineurs et compliquent le travail des forces de l’ordre.

Des réponses insuffisantes

Face à cette dérive, UNICEF appelle à un durcissement rapide du cadre juridique. L’agence onusienne demande aux gouvernements d’« élargir la définition des contenus montrant des abus sexuels sur enfant pour y inclure les contenus générés par l’IA », mais aussi d’en « criminaliser la création, l’acquisition, la détention et la diffusion ». Elle exhorte parallèlement les plateformes numériques à agir en amont, en empêchant la circulation de ces contenus plutôt qu’en se contentant d’intervenir après signalement. « Les dommages causés par l’utilisation abusive des deepfakes sont réels et urgents », insiste l’organisation, rappelant surtout que « les enfants ne peuvent pas attendre que la loi rattrape son retard ».


Lire aussi

Protection de l’enfance et IA : les Nations Unies plaident pour un encadrement politique
Abus sexuels facilités par la technologie, exposition précoce aux réseaux sociaux, outils d’intelligence artificielle peu adaptés aux mineurs. Les Nations Unies alertent sur une menace désormais documentée et appellent à un sursaut collectif.