Explosion des abus facilités par la technologie, exposition précoce aux réseaux sociaux et outils d’intelligence artificielle inadaptés aux mineurs. Les Nations Unies alertent sur un risque désormais global.

« Aucun gouvernement, aucune agence, aucun secteur ne peut relever seul les défis complexes que pose l’IA en matière de droits des enfants. »

Le 19 janvier 2026, en ouvrant la cérémonie de lancement de la « déclaration commune sur l’intelligence artificielle et les droits de l’enfant », le secrétaire général de l’Union interparlementaire, Martin Chungong, a posé un constat partagé par l’ensemble des institutions internationales. La généralisation rapide de l’IA, combinée à l’hyperconnexion des enfants, place désormais la protection de l’enfance face à un défi d’ampleur mondiale.

La déclaration pointe « un manque généralisé de connaissances en matière d’intelligence artificielle » chez les enfants, les enseignants, les parents et les professionnels de l’enfance, ainsi qu’« une pénurie de formations techniques » pour les décideurs publics, notamment sur la gouvernance de l’IA, la protection des données et l’évaluation des impacts sur les droits de l’enfant. Le texte appelle les États à garantir que la conception, le développement et le déploiement de l’IA respectent les droits, la sécurité et le bien-être des enfants, conformément à la Convention internationale des droits de l’enfant (CIDE).

Des abus amplifiés par l’IA

Des organisations de protection de l’enfance alertent sur l’usage croissant de l’intelligence artificielle par les prédateurs pour « analyser le comportement en ligne », « l’état émotionnel » et « les centres d’intérêt » des enfants, afin d’adapter leurs stratégies de manipulation. L’IA est également utilisée pour produire « de fausses images explicites d’enfants réels », à l’origine de nouvelles formes d’extorsion sexuelle.

Dans un rapport publié en 2025, le Childlight Global Child Safety Institute (institut de recherche international indépendant sur l’exploitation et les abus sexuels d’enfants), indique que les cas d’abus facilités par la technologie aux États-Unis sont passés de 4 700 en 2023 à plus de 67 000 en 2024. Une évolution qui traduit un changement d’échelle des violences, désormais « facilitées » et « amplifiées » par les outils numériques.

Le virage politique

Les réseaux sociaux occupent désormais une place centrale dans le quotidien des enfants et des adolescents. Cette exposition précoce favorise des situations de cyberharcèlement, de manipulation et d’exploitation sexuelle en ligne, dans des espaces où l’accès à des contenus violents ou haineux est largement banalisé et les dispositifs de protection encore limités.

Face à l’ampleur des risques identifiés, les États commencent à durcir leur cadre de régulation. Fin 2025, l’Australie a interdit l’accès aux réseaux sociaux aux moins de 16 ans. Dans son sillage, la Malaisie, le Royaume-Uni et le Canada engagent à leur tour des dispositifs visant à restreindre l’accès des mineurs aux plateformes. En France, une proposition de loi adoptée en première lecture à l’Assemblée nationale le 27 janvier 2026 prévoit une interdiction pour les moins de 15 ans, assortie d’un mécanisme de vérification de l’âge.

La responsabilité des plateformes

La déclaration sur l'IA et les droits de l'enfant met directement en cause les entreprises technologiques. Elle souligne que la plupart des outils fondés sur l’IA « ne sont actuellement pas conçus en tenant compte des enfants et de leur bien-être ». Pour Cosmas Zavazava, directeur du Bureau de développement des télécommunications de l’Union internationale des télécommunications, un dialogue est engagé avec les acteurs concernés. Il précise que certaines entreprises ont déjà commencé à formaliser leurs engagements afin « de lutter contre les méfaits de la technologie ».

Une ligne rouge pour les États

Les signataires appellent les États à assumer pleinement leur responsabilité face aux risques posés par l’intelligence artificielle. Ils demandent de « prévenir et traiter toutes les formes de violence et d’exploitation des enfants commises en utilisant des systèmes d’IA ou en s’en aidant » et d’« ériger expressément en infraction toutes les atteintes commises en ligne à l’encontre des enfants ».

Toute décision influencée par des systèmes automatisés doit donc reposer sur « un contrôle humain strict », le texte rappelant que « le jugement humain reste central dans le processus décisionnel », en particulier dans les champs sensibles que sont la justice, l’éducation et la protection de l’enfance.

La déclaration pose ainsi un principe clair : la protection de l’enfance doit s’imposer comme un pilier non négociable de la gouvernance mondiale de l’intelligence artificielle.


Lire aussi

Quand l’IA met à l’épreuve l’éthique des pratiques professionnelles en protection de l’enfance
En protection de l’enfance, la CNAPE constate l’essor rapide de l’IA, porté par la surcharge des équipes et l’urgence du terrain. La fédération souligne l’importance de cadres clairs, de bonnes pratiques et de principes éthiques.
L’intelligence artificielle, nouvel outil au service de la pédocriminalité
La Fondation pour l’Enfance alerte, dans un rapport publié le 29 octobre, sur les risques liés à l’utilisation de l’intelligence artificielle générative pour créer des contenus pédopornographiques de synthèse.