des images générées par l’ia de maltraitance infantile deviennent ‘significativement plus réalistes’, selon un organisme de contrôle

Publié le 23 avril 2025 à 09h07
modifié le 23 avril 2025 à 09h07
Hugo Mollet
Hugo Mollet
Rédacteur en chef pour la rédaction média d'idax, 36 ans et dans l'édition web depuis plus de 18 ans. Passionné par l'IA depuis de nombreuses années.

La réalité des images générées par l’IA de maltraitance infantile revêt une gravité alarmante. Les avancées technologiques accroissent leur réalisme de manière significative. Cette évolution soulève des questions éthiques et juridiques centrales autour de la sécurité des enfants. Le rapport de l’Internet Watch Foundation met en lumière une augmentation choquante des contenus illicites. Une hausse de 380 % de signalements d’images abusives témoigne d’une crise pressante. Les mesures gouvernementales, envisageant l’interdiction de telles technologies, s’inscrivent dans un besoin urgent d’une protection renforcée. L’émergence d’outils comme Image Intercept, destiné à aider les plateformes, marque une avancée dans la lutte contre cette menace insidieuse.

Des images générées par l’IA de maltraitance infantile

Des avancées significatives dans la technologie d’intelligence artificielle ont conduit à la création d’images de maltraitance infantile d’une réalisme frappant. Cette constatation provient du rapport annuel de l’Internet Watch Foundation (IWF), un organisme britannique de surveillance de la sécurité en ligne, qui a observé une évolution alarmante dans la production de contenus illicites par des individus mal intentionnés.

Une augmentation préoccupante des signalements

En 2024, l’IWF a reçu 245 signalements d’images générées par l’IA mettant en cause la maltraitance d’enfants, représentant une augmentation de 380% par rapport aux 51 signalements de l’année précédente. Ce total équivaut à 7 644 images ainsi qu’un nombre restreint de vidéos, démontrant que chaque URL peut contenir de multiples exemples de contenu illicite.

Catégorisation des contenus illégaux

Une grande partie des images recensées relève de la catégorie A, celle qui correspond aux contenus les plus extrêmes de la maltraitance infantile, incluant des activités sexuelles pénétratives. Les résultats montrent que 39% des matériaux générés par l’IA étaient d’une nature aussi choquante et inacceptable.

Nouvelles législations et mesures de prévention

Face à cette problématique croissante, le gouvernement a annoncé, en février, des mesures législatives rendant illégal le fait de posséder, de créer ou de diffuser des outils IA conçus pour générer du matériel d’abus sexuel sur enfants. Cette initiative vise à combler une lacune légale préoccupante qui alarmait les forces de l’ordre et les défenseurs de la sécurité en ligne.

Ressources pour la lutte contre les abus

L’IWF a récemment mis à la disposition des plus petites plateformes un nouvel outil de sécurité, Image Intercept. Cet outil est conçu pour détecter et bloquer les images qui figurent dans une base de données contenant 2,8 millions d’images reconnues comme criminelles. Cette initiative devrait aider les sites à se conformer à la nouvelle loi sur la sécurité en ligne, qui vise à protéger les enfants et à contrer le contenu illégal, tel que la maltraitance infantile.

Progrès dans la détection des abus

Derek Ray-Hill, directeur par intérim de l’IWF, a exprimé que la mise à disposition gratuite de cet outil représente un moment charnière pour la sécurité en ligne. En parallèle, le secrétaire à la technologie, Peter Kyle, a souligné que l’essor des contenus générés par l’IA ainsi que du sextortion, où des enfants sont victimes de chantage suite à l’envoi d’images intimes, met en lumière l’évolution constante des menaces pesant sur les jeunes en ligne.

Accessibilité des images générées par l’IA

Un constat troublant ressort également des analyses : les images générées par l’IA apparaissent de plus en plus sur l’internet accessible, et non seulement sur le dark web. Même pour les analystes formés de l’IWF, distinguer ces matériaux des vraies images et vidéos s’avère être un défi significatif.

Réponse globale aux défis numériques

Les évolutions récentes soulignent la nécessité pour les entreprises et les plateformes en ligne d’adopter des solutions innovantes et robustes. Les initiatives comme l’engagement gouvernemental dans la lutte contre les abus sexuels sur enfants s’intègrent dans une démarche globale visant à garantir un environnement en ligne plus sûr.

Les travaux de prévention doivent continuer à se développer pour contrer des enjeux en évolution constante tout en s’appuyant sur des technologies adaptées.

Foire aux questions sur les images générées par l’IA de maltraitance infantile

Quelles sont les conséquences de la création d’images de maltraitance infantile par l’IA ?
La création d’images de maltraitance infantile générées par l’IA contribue à la circulation de contenus illégaux, allant à l’encontre de la loi, et représente une menace croissante pour les jeunes en ligne. Cela normalise aussi la maltraitance et expose les victimes à un risque accru.

Comment les avancées en IA affectent-elles la qualité des images de maltraitance infantile ?
Les avancées technologiques en matière d’IA permettent la production d’images de maltraitance infantile qui sont devenues significativement plus réalistes, rendant plus difficile l’identification et la traçabilité de ces contenus par les autorités.

Quelles actions sont prises par les organismes de contrôle face à cette problématique ?
Des organismes comme l’Internet Watch Foundation (IWF) mettent en place des outils de détection et rapportent des cas d’images de maltraitance, tout en collaborant avec les autorités pour renforcer la législation et protéger les enfants.

Quels types de contenus générés par l’IA sont les plus préoccupants ?
Les contenus préoccupants incluent le matériel de catégorie A, qui comprend des images montrant des activités sexuelles pénétratives ou de la violence. Ces contenus représentent une proportion significative des rapports d’images générées par l’IA.

Quelles mesures légales sont envisagées pour lutter contre ce phénomène ?
Il est prévu que la possession, la création ou la distribution d’outils d’IA destinés à générer des contenus de maltraitance infantile deviennent illégales, fermant ainsi une faille juridique qui permettait à certains individus de contourner les lois existantes.

Où trouve-t-on des images générées par l’IA de maltraitance infantile ?
Ces images sont désormais de plus en plus visibles sur l’internet ouvert, rendant leur détection plus complexe pour les organismes de contrôle qui auparavant se concentraient principalement sur le « dark web ».

Comment les petites plateformes peuvent-elles se protéger contre la diffusion de ces contenus ?
Des outils comme Image Intercept, mis à disposition gratuitement, permettent aux petites plateformes de détecter et bloquer efficacement les images reconnues comme criminelles afin de se conformer aux législations en vigueur.

Quel rôle joue le gouvernement dans la lutte contre les images générées par l’IA ?
Le gouvernement s’engage à légiférer pour rendre illégales les pratiques liées à la production de contenus par IA concernant la maltraitance infantile, en soulignant l’importance d’une approche proactive pour protéger les jeunes en ligne.

Hugo Mollet
Hugo Mollet
Rédacteur en chef pour la rédaction média d'idax, 36 ans et dans l'édition web depuis plus de 18 ans. Passionné par l'IA depuis de nombreuses années.
actu.iaNewsdes images générées par l'ia de maltraitance infantile deviennent ‘significativement plus réalistes’,...

Cynomi lève 37 millions de dollars lors de sa levée de fonds de série B

découvrez comment cynomi a levé 37 millions de dollars lors de sa levée de fonds de série b, renforçant ainsi sa position sur le marché et ses ambitions d'innovation.

ChatGPT Search dépasse les 41 millions d’utilisateurs : Google est-il en danger ?

découvrez comment chatgpt search a atteint plus de 41 millions d'utilisateurs et analysez les implications pour google. est-ce que cette montée en puissance du moteur de recherche ia représente une menace pour le géant du secteur ? plongez dans notre analyse pour comprendre les défis des recherches basées sur l'intelligence artificielle.

Lace AI obtient 19 millions de dollars pour combler un manque à gagner de 650 milliards de dollars dans...

découvrez comment lace ai a levé 19 millions de dollars pour mettre en œuvre des solutions d'intelligence artificielle visant à résoudre un manque à gagner de 650 milliards de dollars dans le secteur des services à domicile.

cinq formations pour booster votre productivité avec l’intelligence artificielle

découvrez cinq formations innovantes pour améliorer votre productivité grâce à l'intelligence artificielle. apprenez à optimiser vos tâches, gagner du temps et transformer vos processus de travail avec des outils avancés. rejoignez-nous pour développer des compétences clés et rester compétitif dans un monde en constante évolution.
découvrez comment elevenlabs innove avec sa nouvelle fonctionnalité de transfert de dialogues entre agents d'intelligence artificielle, améliorant ainsi l'interaction et la fluidité des conversations. restez à la pointe de la technologie ai et explorez les possibilités infinies offertes par cette avancée.

Les dirigeants de la technologie soutenant Trump pourraient subir un retour de flamme

découvrez comment les dirigeants du secteur technologique qui soutiennent trump pourraient faire face à des conséquences inattendues. une analyse des enjeux politiques et économiques liés à leur position dans un climat en évolution.