Des craintes émergent face à l’utilisation d’IA pour créer des images d’abus sexuels sur des enfants sur des sites de chatbots

Publié le 21 septembre 2025 à 16h01
modifié le 21 septembre 2025 à 16h01
Hugo Mollet
Hugo Mollet
Rédacteur en chef pour la rédaction média d'idax, 36 ans et dans l'édition web depuis plus de 18 ans. Passionné par l'IA depuis de nombreuses années.

Les révélations sur l’utilisation d’intelligences artificielles pour générer des images d’abus sexuels sur des enfants suscitent une inquiétude croissante au sein de la société. Les chatbots, souvent perçus comme une innovation, deviennent des vecteurs d’agressions intériorisées et normalisées. La diffusion de scénarios à connotation sexuelle impliquant des préadolescents représente un fléau nécessitant une attention urgente et des régulations strictes. Les inquiétudes des organismes de protection de l’enfance portent sur la prévalence de contenu illégal et les risques accrus pour les mineurs. Le débat autour des responsabilités des entreprises technologiques et des législateurs s’intensifie dans un contexte où l’intelligence artificielle devient omniprésente.

Problématiques soulevées par l’utilisation de chatbots

Une alerte sérieuse a été émise par un organisme de surveillance de la sécurité enfantine concernant un site de chatbot. Ce dernier propose des scénarios explicites impliquant des personnages prépubères. Les inquiétudes grandissent face aux abus potentiels de l’intelligence artificielle dans la création de matériel d’exploitation sexuelle sur les enfants. Les répercussions de cette situation exigent une attention immédiate des structures gouvernementales.

Les contenus inacceptables offerts par les chatbots

Des scénarios troublants ont été portés à l’attention du public, tels que « enfant prostituée dans un hôtel » ou « sexe avec votre enfant pendant que votre femme est en vacances ». Ces propositions choquantes montrent la nécessité d’une intervention législative. Le rapport indique également que les images générées par intelligence artificielle peuvent illustrer des cas de matériel d’abus sexuel sur des enfants, enfreignant la loi sur la protection des enfants.

Réactions des organismes de protection de l’enfance

La Internet Watch Foundation (IWF) a détecté 17 images générées par IA qui peuvent être considérées comme illégales. Le directeur général de l’IWF, Kerry Smith, a déclaré que des mesures doivent être prises rapidement. Les appels à une réglementation stricte de l’IA ont augmenté, soulignant l’importance d’intégrer des directives de protection dans la conception des modèles d’IA dès leur commencement.

Initiatives gouvernementales en réponse à la crise

Le gouvernement britannique prévoit l’élaboration d’un projet de loi sur l’IA, axé sur la régulation des modèles de pointe. Ce texte vise à interdire la possession et la distribution de modèles générant du matériel pédopornographique. Les accusations de négligence à l’encontre des entreprises technologiques provoquent une pression croissante pour intégrer des mesures robustes protégeant les enfants au sein de l’industrie.

Des chiffres alarmants sur l’abus en ligne

La IWF a observé une forte augmentation, de 400%, des signalements de contenu d’abus généré par l’IA en seulement six mois. Les progrès technologiques dans le domaine des images contribuent à cette tendance, accru par l’accessibilité de contenus illicites en ligne. Les efforts de monitoring doivent se renforcer, car le nombre de visites sur le site incriminé a atteint des dizaines de milliers, dépassant même les 60 000 en juillet.

Responsabilité des plateformes et des créateurs de contenu

Les chatbots inappropriés dérivent de la créativité des utilisateurs et de la responsabilité des créateurs de sites en ligne. Sous l’Online Safety Act, les plateformes peuvent faire face à des amendes significatives si elles échouent à mettre en place les protections nécessaires. Ce cadre juridique signifie que les fournisseurs de services en ligne doivent prioriser la sécurité des enfants en ligne.

Appel à l’action de la communauté

L’association NSPCC exige également l’instauration de directives de protection. Chris Sherwood, son directeur, a affirmé que les développeurs d’IA doivent assumer une responsabilité légale envers les enfants. Cette campagne doit aboutir à des mesures de précaution robustes intégrées dès la conception des technologies innovantes.

Contexte international et coopération nécessaire

Les États-Unis partagent des préoccupations similaires, comme en témoigne la réactivité du National Center for Missing and Exploited Children (NCMEC) aux signalements d’abus en ligne. Les serveurs hébergeant ces contenus douteux se trouvent aux États-Unis, ce qui appelle à une coopération internationale pour endiguer ce fléau. Une régulation globale de l’IA semble inévitable pour protéger les enfants sur Internet.

Questions fréquentes sur les craintes liées à l’IA et aux images d’abus sexuels sur des enfants

Quelles sont les implications légales de la création d’images d’abus sexuels sur des enfants par des systèmes d’IA ?
La création, la possession ou la distribution d’images d’abus sexuels sur des enfants est strictement illégale au Royaume-Uni, y compris celles qui sont générées par l’IA. Des sanctions sévères peuvent être appliquées, y compris des amendes massives et des peines de prison.

Comment les chatbots contribuent-ils à la création de contenu illégal impliquant des enfants ?
Certaines plateformes de chatbots permettent aux utilisateurs de générer des scénarios explicites mettant en scène des personnages préadolescents, pouvant mener à la création d’images d’abus sexuels. Ces chatbots peuvent imiter des comportements d’enfants et encourager des interactions inappropriées.

Quelles mesures sont mises en place pour réguler les technologies d’IA en matière de protection de l’enfance ?
Des initiatives de régulation sont en cours, comme une législation sur la sécurité en ligne au Royaume-Uni qui vise à imposer des directives de protection des enfants dans le développement de modèles d’IA. Les autorités surveillent également le contenu illégal pour assurer la sécurité des enfants.

Quel est le rôle de l’Internet Watch Foundation (IWF) dans la lutte contre les abus sexuels en ligne ?
L’IWF est responsable de la surveillance et de la signalisation de contenu d’abus sexuel sur les enfants sur Internet. Elle recueille des rapports sur les contenus illicites générés par l’IA et collabore avec les autorités pour prendre des mesures proactives.

Comment les entreprises technologiques peuvent-elles garantir la sécurité des enfants face à l’utilisation de l’IA ?
Les entreprises doivent intégrer des mesures robustes de sécurité pour protéger les utilisateurs, en particulier les enfants, en développant des lignes directrices claires et des systèmes de filtrage pour empêcher l’accès à du contenu illégal ou inapproprié.

Quelles actions les gouvernements peuvent-ils entreprendre pour lutter contre l’exploitation des enfants via l’IA ?
Les gouvernements devraient procéder à l’élaboration de lois spécifiques interdisant le contenu d’abus créé par l’IA, et intensifier les efforts pour punir les entreprises qui ne respectent pas les normes de sécurité essentielles.

Comment est-il possible de signaler du contenu d’abus généré par l’IA ?
Les utilisateurs peuvent signaler du contenu suspicieux à des organisations comme l’IWF ou à des plateformes de signalement adéquates qui traitent ces cas avec des autorités compétentes.

Quel impact la technologie IA a-t-elle sur l’augmentation des matériels d’abus sexuel généré en ligne ?
La technologie IA a permis une augmentation de la production de contenus d’abus sexuel, avec un rapport indiquant une hausse de 400 % des signalements d’images générées par l’IA sur une période récente, soulignant la nécessité de réglementations strictes.

Hugo Mollet
Hugo Mollet
Rédacteur en chef pour la rédaction média d'idax, 36 ans et dans l'édition web depuis plus de 18 ans. Passionné par l'IA depuis de nombreuses années.
actu.iaNewsDes craintes émergent face à l'utilisation d'IA pour créer des images d'abus...

Les différences d’utilisation de l’IA entre les hommes et les femmes : un phénomène révélateur

découvrez comment hommes et femmes utilisent différemment l’intelligence artificielle, et ce que ces divergences révèlent sur les usages, les perceptions et les opportunités autour de l’ia dans notre société.

Les actions technologiques chinoises explosent, dépassant le Nasdaq grâce aux avancées en IA

découvrez comment les actions technologiques chinoises connaissent une croissance fulgurante et surpassent le nasdaq, portées par des innovations majeures en intelligence artificielle. analyse des tendances et des opportunités du secteur en pleine évolution.

Instaurer la confiance des employés envers l’intelligence artificielle : stratégies et enjeux

découvrez comment instaurer la confiance des employés envers l'intelligence artificielle grâce à des stratégies concrètes et l’analyse des principaux enjeux pour une adoption réussie au sein de votre entreprise.
découvrez comment protéger vos données personnelles et limiter l’utilisation de vos informations par linkedin pour entraîner son intelligence artificielle. conseils pratiques et étapes pour garder le contrôle de votre vie privée en ligne.

Ray-Ban Display : un aperçu sur les lunettes connectées dévoilées par Meta

découvrez un aperçu des lunettes connectées ray-ban dévoilées par meta : design innovant, fonctionnalités intelligentes et nouvelles expériences pour les utilisateurs. plongez dans l'univers des smart glasses et explorez leur potentiel révolutionnaire.

Une startup britannique d’IA surpasse les humains lors d’une compétition internationale de prévisions

découvrez comment une startup britannique spécialisée en intelligence artificielle a battu les meilleurs experts humains lors d'une prestigieuse compétition internationale de prévisions, marquant une avancée majeure dans le domaine de l'ia.