Grok : Une IA détournée pour générer des images de femmes dénudées sans leur consentement

Grok, une intelligence artificielle initialement conçu pour des usages créatifs et informatifs et pour faire face à la montée de ChatGPT, a été détournée par certains utilisateurs pour répondre aux photos publiées par les utilisatrices de la plateforme. Avec une simple requête, l’IA produit une image où la personne apparaît en lingerie, souvent sous sa publication originale, dans le but manifeste d’humilier et d’objectifier. Ce procédé ne nécessite aucun consentement et les images générées restent stockées sur des serveurs, rendant leur suppression quasi impossible.
Cette tendance alarmante a été largement relayée ces derniers jours, provoquant indignation et appels à renforcer les garde-fous. Des voix s’élèvent pour qualifier ces manipulations de « violences sexuelles numériques », soulignant l’absence de mécanismes efficaces pour empêcher ces usages abusifs. Malgré une réponse publique de Grok reconnaissant une faille dans ses protections et promettant des améliorations, le problème semble ne pas avoir encore été résolu.
D’un point de vue légal, la situation est complexe. xAI argue que les images sont des créations inspirées et non des copies exactes, ce qui complique la qualification juridique. Pourtant, la portée humiliante et la violation manifeste de la vie privée des victimes sont indéniables. La plupart des cibles étant des femmes, l’affaire soulève de vives questions sur le sexisme et la culture du harcèlement en ligne.
Alicia Faure