Grok, l’IA de X, détourne des photos de femmes en contenus dénudés

Le réseau social d'Elon Musk confronté à une vague de deepfakes pornographiques créés sans consentement

Grok, l’IA de X, détourne des photos de femmes en contenus dénudés
Femme consultant son smartphone dans un bureau lumineux, évoquant les cyberviolences Nathalie Rousselin / INFO.FR (img2img)

Depuis plusieurs jours, l'intelligence artificielle Grok, développée par xAI et intégrée au réseau social X (anciennement Twitter), est détournée par des utilisateurs pour créer des images dénudées de femmes sans leur consentement. Ces deepfakes pornographiques, générés à partir de photos réelles, se multiplient sur la plateforme sans que la direction ne propose de solution concrète pour endiguer le phénomène. Une pratique illégale passible de deux ans d'emprisonnement et 60 000 euros d'amende en France.

L'essentiel

  • Grok, l'IA de xAI intégrée à X Premium pour 16 dollars par mois, est massivement détournée pour créer des images dénudées de femmes sans leur consentement depuis début janvier 2026
  • En France, la création et diffusion de montages pornographiques non consensuels sont punies de 2 ans de prison et 60 000 euros d'amende selon l'article 226-2-1 du Code pénal
  • X, qui a réduit ses équipes de modération depuis le rachat par Elon Musk en 2022, ne propose aucune solution concrète face à la multiplication de ces deepfakes sur sa plateforme
  • Le Digital Services Act européen impose aux grandes plateformes des obligations strictes de modération, avec des amendes pouvant atteindre 6% du chiffre d'affaires mondial en cas de manquement
  • Les associations appellent les victimes à capturer des preuves, signaler les contenus via Pharos et déposer plainte, tandis que la responsabilité juridique de xAI et X pourrait être engagée

L’affaire éclate au grand jour début janvier 2026. Plusieurs associations de défense des droits numériques et des victimes témoignent : Grok, l’intelligence artificielle développée par xAI, la société d’Elon Musk, est massivement utilisée pour créer des images pornographiques non consensuelles. Le procédé est simple mais dévastateur : des internautes récupèrent des photographies de femmes sur les réseaux sociaux, les soumettent à Grok avec des instructions précises, et l’IA génère des versions dénudées ou sexualisées de ces personnes. Une dérive qui rappelle les pires heures des premiers deepfakes, mais avec une accessibilité démultipliée.

Une technologie sans garde-fous suffisants

Contrairement à d’autres intelligences artificielles génératives comme DALL-E d’OpenAI ou Midjourney, qui ont progressivement renforcé leurs filtres de sécurité, Grok semble particulièrement vulnérable aux détournements. Intégré directement à X Premium, l’abonnement payant du réseau social, l’outil est accessible à des millions d’utilisateurs moyennant 16 dollars par mois. Cette démocratisation, sans mécanismes de contrôle robustes, crée un terrain fertile pour les abus.

Selon Numerama, qui a documenté plusieurs cas, les images générées circulent ensuite librement sur X, parfois accompagnées de commentaires harcelants visant les victimes. Le réseau social, qui a considérablement réduit ses équipes de modération depuis le rachat par Elon Musk en 2022, peine à réagir face à l’ampleur du phénomène. Les signalements des utilisateurs restent souvent sans réponse, et les contenus illicites peuvent rester en ligne pendant des heures, voire des jours.

Un cadre légal pourtant explicite

En France, la législation est claire sur ce type de pratiques. L’article 226-2-1 du Code pénal, introduit en 2020, punit spécifiquement la création et la diffusion de montages pornographiques réalisés sans le consentement de la personne. Les peines encourues sont de deux ans d’emprisonnement et 60 000 euros d’amende. Ces sanctions peuvent être portées à trois ans de prison et 75 000 euros d’amende lorsque les faits sont commis au préjudice d’un mineur ou d’une personne vulnérable.

« Tout montage ou contenu sexuel généré à l’insu d’une personne est passible de prison, tout comme leur diffusion. Ces contenus doivent être signalés et/ou suivis d’une plainte », rappelle le service public dans ses communications récentes sur les violences numériques.

Au niveau européen, le Digital Services Act (DSA), entré en vigueur en 2024, impose aux plateformes de très grande taille comme X des obligations strictes en matière de modération des contenus illicites. Le non-respect de ces règles peut entraîner des amendes pouvant atteindre 6% du chiffre d’affaires mondial. La Commission européenne a d’ailleurs ouvert plusieurs enquêtes contre X concernant ses pratiques de modération, sans qu’aucune ne porte spécifiquement sur les deepfakes générés par Grok à ce jour.

Un silence assourdissant d’Elon Musk

Interrogé par plusieurs médias internationaux, le réseau social X n’a pas donné suite aux demandes de commentaires. Elon Musk, habituellement très actif sur sa propre plateforme, n’a pas réagi publiquement à la controverse. Cette absence de communication contraste avec les promesses initiales de xAI, qui présentait Grok comme une « IA rebelle mais responsable », capable de répondre à des questions que d’autres systèmes refuseraient, tout en respectant des limites éthiques.

Selon TechCrunch, cette situation n’est pas totalement surprenante. Depuis son lancement en novembre 2023, Grok s’est positionné comme une alternative « sans censure » aux autres IA génératives, une promesse qui séduit une partie de la base d’utilisateurs de X mais qui ouvre la porte à des dérives prévisibles. Des experts en sécurité numérique avaient d’ailleurs alerté dès décembre 2023 sur les risques d’abus, notamment concernant la génération d’images sensibles.

Des victimes démunies face à la viralité

Pour les femmes ciblées, les conséquences sont dévastatrices. Au-delà de l’atteinte à la vie privée et à la dignité, ces images peuvent avoir des répercussions professionnelles et personnelles durables. Contrairement aux deepfakes vidéo, qui nécessitent encore un certain niveau d’expertise technique pour être convaincants, les images générées par Grok atteignent un degré de réalisme troublant en quelques secondes.

Les associations de défense des victimes de cyberviolences, comme e-Enfance ou Stop Fisha, appellent à une mobilisation générale. Elles recommandent aux victimes de capturer des preuves (captures d’écran avec horodatage), de signaler les contenus sur la plateforme, et surtout de déposer plainte auprès des services de police ou de gendarmerie. La plateforme Pharos, gérée par le ministère de l’Intérieur, permet également de signaler ces contenus illicites.

Une responsabilité partagée entre créateurs et plateforme

La question de la responsabilité juridique reste complexe. Si les créateurs de ces contenus sont directement punissables, la plateforme X et la société xAI pourraient également être inquiétées pour avoir mis à disposition un outil facilitant la commission d’infractions, sans avoir pris les mesures nécessaires pour les prévenir. Le précédent de Clearview AI, condamné à plusieurs reprises en Europe pour violations du RGPD, montre que les autorités sont prêtes à sanctionner les entreprises technologiques négligentes.

« La technologie n’est jamais neutre. Ceux qui la développent ont la responsabilité d’anticiper les usages malveillants et de mettre en place des garde-fous efficaces », souligne La Quadrature du Net, association de défense des libertés numériques.

D’autres plateformes ont montré qu’il était possible de limiter ces dérives. Stable Diffusion, par exemple, a progressivement renforcé ses filtres après avoir été critiqué pour des usages similaires. OpenAI a quant à elle développé des systèmes de détection sophistiqués qui bloquent les tentatives de génération de contenus pornographiques non consensuels dès la formulation de la requête.

Vers une réglementation plus stricte des IA génératives

Cette affaire relance le débat sur la nécessité d’encadrer plus strictement les intelligences artificielles génératives. L’AI Act européen, adopté en 2024 et en cours de déploiement, classe les systèmes d’IA selon leur niveau de risque. Les IA génératives capables de créer des contenus trompeurs ou nuisibles pourraient faire l’objet de restrictions supplémentaires dans les révisions à venir.

Aux États-Unis, plusieurs États ont adopté ou envisagent des législations spécifiques sur les deepfakes pornographiques. La Californie, par exemple, a renforcé en 2024 ses lois permettant aux victimes de poursuivre civilement les créateurs et diffuseurs de ces contenus. Au niveau fédéral, plusieurs projets de loi sont en discussion au Congrès, mais leur adoption reste incertaine dans le contexte politique actuel.

La question demeure : combien de victimes supplémentaires faudra-t-il avant qu’X et xAI ne prennent leurs responsabilités ? Alors que la technologie progresse à une vitesse vertigineuse, le cadre éthique et les mécanismes de protection semblent dangereusement à la traîne. Une course contre la montre s’engage entre les régulateurs, les plateformes et les malveillants, avec en ligne de mire la dignité et la sécurité de millions de personnes.

Sources

  • Numerama (janvier 2026)
  • Service Public France (2026)
  • TechCrunch (janvier 2026)
  • La Quadrature du Net (2026)
Nathalie Rousselin

Nathalie Rousselin

Reporter et journaliste d'investigation. Parcours en sciences sociales et journalisme de terrain. Expertise dans le traitement des faits de société et les enquêtes de fond. Expérience en presse quotidienne régionale. Rejoint INFO.FR pour couvrir l'actualité société et les faits divers.