Une nouvelle étude de l’Université George Mason révèle que plus de la moitié des adolescents américains ont créé ou reçu des images de nu générées par l’IA, nombre d’entre eux utilisant ces outils en remplacement du sexting traditionnel. Les résultats, publiés dans PLOS One, mettent en évidence une tendance inquiétante selon laquelle l’intelligence artificielle normalise les contenus sexuels non consensuels chez les adolescents.
La montée de la « nudification »
Selon l’expert en criminalistique numérique Chad Steel, qui a dirigé la recherche, les adolescents ne sont plus seulement familiers avec les espaces numériques, ils sont natifs de l’IA. L’étude a interrogé 557 adolescents anonymes (âgés de 13 à 17 ans, avec le consentement de leurs parents) et a révélé des statistiques stupéfiantes :
- 55,3 % ont utilisé des outils d’IA (applications « nudification ») pour créer au moins une image nue.
- 54,4% ont reçu une telle image, souvent sans consentement.
- 36,3 % ont déclaré avoir réalisé une image de nu non consensuelle générée par l’IA.
- 33,2 % ont vu une telle image distribuée sans leur autorisation.
Pourquoi c’est important
La normalisation de la nudité générée par l’IA chez les adolescents n’est pas simplement une violation de la vie privée ; c’est un changement de paradigme dans la façon dont les jeunes s’engagent dans le contenu sexuel. Auparavant, le sexting comportait un certain degré de risque et d’efforts, désormais les outils d’IA permettent de créer, de partager et même de contraindre ces images presque sans effort. Cette facilité d’accès réduit la responsabilité et augmente le potentiel d’exploitation.
Le récent recours collectif contre xAI d’Elon Musk, dans lequel des adolescents alléguaient que leurs photos avaient été utilisées pour générer des images de nus non consensuelles, souligne les conséquences réelles. Une mère a décrit avoir vu la dernière année de sa fille « gâchée » par une telle violation.
Différences entre les sexes et implications futures
Bien que la prévalence soit répandue selon les sexes, les participants masculins ont signalé des taux plus élevés de création et de distribution d’images d’IA sexualisées, à la fois de manière consensuelle et non consensuelle. Cette disparité suggère des risques potentiels d’exploitation et de coercition au sein des groupes de pairs.
Steel appelle à des mesures proactives :
- Éducation précoce sur l’utilisation sûre de GenAI, à partir de avant 13 ans.
- Formation des forces de l’ordre pour gérer efficacement les victimes et les délinquants.
- Nouvelle législation concernant le matériel d’exploitation sexuelle d’enfants basé sur l’IA (CSEM).
- Recherches complémentaires sur les effets psychologiques et sociaux de cette technologie.
À mesure que l’IA continue d’évoluer, la frontière entre fantasme et réalité s’estompe encore davantage pour les adolescents, rendant le consentement et la vie privée encore plus précaires.
L’adoption rapide de ces outils par les jeunes exige une attention immédiate de la part des parents, des éducateurs et des décideurs politiques afin d’atténuer les dommages et de garantir un environnement numérique plus sûr.




















