Escándalo de Grok y Elon Musk, advierten de una nueva era de violencia machista con IAPor Helena Horton / Aisha Down / Priya Bharadia
"Desde que descubrí Grok AI, el porno convencional ya no me convence; ahora me parece absurdo", escribe en Reddit un entusiasta del chatbot de IA propiedad de Elon Musk. Otro coincide: "Si quiero a una persona muy específica, sí".
Si quienes se han horrorizado por la distribución de imágenes sexualizadas en Grok esperaban que las tardías medidas de seguridad de la semana pasada pudieran volver a meter al genio en la botella, hay muchas publicaciones similares a estas en los foros de Reddit y otros lugares que cuentan una historia diferente. Y si bien Grok ha transformado la comprensión pública del poder de la inteligencia artificial, también ha puesto de manifiesto un problema mucho más amplio: la creciente disponibilidad de herramientas y medios de distribución que plantean a los reguladores mundiales una tarea que muchos consideran imposible.
Incluso cuando el Reino Unido o España anuncia que la creación de imágenes sexuales e íntimas no consentidas pronto será un delito, los expertos afirman que el uso de la IA para atacar a las mujeres apenas ha comenzado.
Sin apenas medidas de seguridad
Otras herramientas de IA cuentan con medidas de seguridad mucho más estrictas que Grok. Al pedirle que desnude la fotografía de una mujer para ponerle un bikini, Claude, el modelo de lenguaje de Anthropic (una startup financiada por Amazon o Google), responde: "No puedo hacerlo. No puedo editar imágenes para cambiar de ropa ni crear fotos manipuladas de personas". ChatGPT y Gemini, la IA de Google, crean imágenes en bikini, pero nada más explícito.
Sin embargo, en otros lugares hay muchos menos límites. Los usuarios del foro sobre Grok en Reddit han estado compartiendo consejos sobre cómo generar las imágenes pornográficas más extremas posibles usando fotos de mujeres reales. En un hilo, los usuarios se quejaban de que Grok les permitía crear imágenes de mujeres en topless "tras oponer resistencia", pero se negaba a generar genitales. Otros han notado que pedir "desnudez artística" elude las medidas de seguridad que impiden desnudar completamente a las mujeres.
Explosión de herramientas de "nudificación"
Más allá de los modelos de las principales plataformas, existe todo un ecosistema de páginas web, foros y aplicaciones dedicadas a la desnudez forzada y la humillación de las mujeres con IA. Estas comunidades están encontrando cada vez más formas de infiltrarse en la conversación dominante sobre estas herramientas, explica Anne Craanen, investigadora del Instituto para el Diálogo Estratégico (ISD, por sus siglas en inglés), especializada en violencia de género facilitada por la tecnología.
En comunidades de Reddit y Telegram se debate abiertamente cómo sortear las barreras de seguridad para lograr que las principales inteligencias artificiales generen pornografía, un proceso conocido como jailbreaking. En X, distintos hilos amplían información sobre aplicaciones de "nudificación", capaces de producir imágenes de mujeres desnudas generadas por IA, y sobre cómo utilizarlas.
Craanen señala que las vías por las que el contenido misógino se propaga en internet se han multiplicado y advierte: "Hay un terreno muy fértil para que la misoginia prospere". Una investigación del ISD publicada el verano pasado identificó decenas de aplicaciones y sitios web de nudificación que, en conjunto, recibieron casi 21 millones de visitas en mayo de 2025. Entre junio y julio del año pasado se contabilizaron 290.000 menciones de estas herramientas en X.
Buena parte de la infraestructura que sostiene los deepfakes de abuso sexual está financiada por empresas que utilizamos a diario
Nina Jankowicz - experta en desinformación y cofundadora del American Sunlight Project
Otro informe del American Sunlight Project, difundido en septiembre, reveló la existencia de miles de anuncios de estas aplicaciones en Meta, pese a las declaraciones de la compañía sobre su esfuerzo por combatirlos. "Hay cientos de aplicaciones alojadas en tiendas convencionales como las de Apple y Google que hacen posible este tipo de abusos", afirma Nina Jankowicz, experta en desinformación y cofundadora del American Sunlight Project. "Buena parte de la infraestructura que sostiene los deepfakes de abuso sexual está financiada por empresas que utilizamos a diario", sostiene.
Clare McGlynn, profesora de Derecho y experta en violencia contra mujeres y niñas en la Universidad de Durham, teme que la situación no haga más que empeorar. "OpenAI anunció el pasado noviembre que permitiría contenido erótico en ChatGPT. Lo que ha ocurrido en X demuestra que cualquier nueva tecnología acaba utilizándose para abusar y acosar a mujeres y niñas. ¿Qué veremos entonces en ChatGPT?".
"Las mujeres y las niñas son mucho más reticentes a utilizar la IA, algo que no debería sorprender. No la perciben como una tecnología nueva y emocionante, sino como una nueva vía para el acoso y el abuso, y como un intento más de expulsarlas de los espacios digitales", expone.
Porno de castigo
Jess Asato, diputada laborista por la región británica de Lowestoft, lleva tiempo denunciando este problema y asegura que sus detractores han estado creando y difundiendo con entusiasmo imágenes explícitas suyas, incluso después de que se impusieran restricciones a Grok. "Me sigue ocurriendo y se sigue publicando en X porque hablo de ello", añadió. Asato subraya además que el abuso mediante deepfakes generados con IA lleva años afectando a las mujeres y no se limita a Grok. "No sé por qué se ha tardado tanto en actuar. He hablado con muchísimas víctimas de situaciones mucho, mucho peores", afirma.
Aunque la cuenta pública de Grok en X ya no genera imágenes para quienes no tienen una suscripción de pago y parece que se han introducido barreras para impedir la creación de imágenes en bikini, la aplicación para móviles de Grok (desligada de la red social) presenta muchas menos restricciones.
Ese componente performativo es clave y deja muy claras las connotaciones misóginas: castigar o silenciar a las mujeres
Anne Craanen - investigadora del ISD especializada en violencia de género facilitada por la tecnología
Los usuarios aún pueden crear imágenes sexualmente explícitas a partir de fotografías de personas reales completamente vestidas, sin las limitaciones para los usuarios de pago que se han introducido en X. Si se le pide que transforme una foto en una escena con atuendo de bondage, lo hace. También sitúa a mujeres en posiciones sexualmente degradantes y las cubre con sustancias blancas similares al semen.
Según Craanen, el objetivo de crear desnudos falsos no suele ser solo compartir imágenes eróticas, sino el espectáculo en sí, especialmente cuando esas imágenes inundan plataformas como X. "Es el propio toma y daca, el intento de acallar a alguien diciendo: 'Grok, ponla en bikini'", explica.
"Ese componente performativo es clave y deja muy claras las connotaciones misóginas: castigar o silenciar a las mujeres. Y eso tiene además un efecto en cascada sobre las normas democráticas y el papel de las mujeres en la sociedad", concluye.
Fuente: elDiarioAr
Por Helena Horton / Aisha Down / Priya Bharadia
"Desde que descubrí Grok AI, el porno convencional ya no me convence; ahora me parece absurdo", escribe en Reddit un entusiasta del chatbot de IA propiedad de Elon Musk. Otro coincide: "Si quiero a una persona muy específica, sí".
Si quienes se han horrorizado por la distribución de imágenes sexualizadas en Grok esperaban que las tardías medidas de seguridad de la semana pasada pudieran volver a meter al genio en la botella, hay muchas publicaciones similares a estas en los foros de Reddit y otros lugares que cuentan una historia diferente. Y si bien Grok ha transformado la comprensión pública del poder de la inteligencia artificial, también ha puesto de manifiesto un problema mucho más amplio: la creciente disponibilidad de herramientas y medios de distribución que plantean a los reguladores mundiales una tarea que muchos consideran imposible.
Incluso cuando el Reino Unido o España anuncia que la creación de imágenes sexuales e íntimas no consentidas pronto será un delito, los expertos afirman que el uso de la IA para atacar a las mujeres apenas ha comenzado.
Sin apenas medidas de seguridad
Otras herramientas de IA cuentan con medidas de seguridad mucho más estrictas que Grok. Al pedirle que desnude la fotografía de una mujer para ponerle un bikini, Claude, el modelo de lenguaje de Anthropic (una startup financiada por Amazon o Google), responde: "No puedo hacerlo. No puedo editar imágenes para cambiar de ropa ni crear fotos manipuladas de personas". ChatGPT y Gemini, la IA de Google, crean imágenes en bikini, pero nada más explícito.
Sin embargo, en otros lugares hay muchos menos límites. Los usuarios del foro sobre Grok en Reddit han estado compartiendo consejos sobre cómo generar las imágenes pornográficas más extremas posibles usando fotos de mujeres reales. En un hilo, los usuarios se quejaban de que Grok les permitía crear imágenes de mujeres en topless "tras oponer resistencia", pero se negaba a generar genitales. Otros han notado que pedir "desnudez artística" elude las medidas de seguridad que impiden desnudar completamente a las mujeres.
Explosión de herramientas de "nudificación"
Más allá de los modelos de las principales plataformas, existe todo un ecosistema de páginas web, foros y aplicaciones dedicadas a la desnudez forzada y la humillación de las mujeres con IA. Estas comunidades están encontrando cada vez más formas de infiltrarse en la conversación dominante sobre estas herramientas, explica Anne Craanen, investigadora del Instituto para el Diálogo Estratégico (ISD, por sus siglas en inglés), especializada en violencia de género facilitada por la tecnología.
En comunidades de Reddit y Telegram se debate abiertamente cómo sortear las barreras de seguridad para lograr que las principales inteligencias artificiales generen pornografía, un proceso conocido como jailbreaking. En X, distintos hilos amplían información sobre aplicaciones de "nudificación", capaces de producir imágenes de mujeres desnudas generadas por IA, y sobre cómo utilizarlas.
Craanen señala que las vías por las que el contenido misógino se propaga en internet se han multiplicado y advierte: "Hay un terreno muy fértil para que la misoginia prospere". Una investigación del ISD publicada el verano pasado identificó decenas de aplicaciones y sitios web de nudificación que, en conjunto, recibieron casi 21 millones de visitas en mayo de 2025. Entre junio y julio del año pasado se contabilizaron 290.000 menciones de estas herramientas en X.
Buena parte de la infraestructura que sostiene los deepfakes de abuso sexual está financiada por empresas que utilizamos a diario
Nina Jankowicz - experta en desinformación y cofundadora del American Sunlight Project
Otro informe del American Sunlight Project, difundido en septiembre, reveló la existencia de miles de anuncios de estas aplicaciones en Meta, pese a las declaraciones de la compañía sobre su esfuerzo por combatirlos. "Hay cientos de aplicaciones alojadas en tiendas convencionales como las de Apple y Google que hacen posible este tipo de abusos", afirma Nina Jankowicz, experta en desinformación y cofundadora del American Sunlight Project. "Buena parte de la infraestructura que sostiene los deepfakes de abuso sexual está financiada por empresas que utilizamos a diario", sostiene.
Clare McGlynn, profesora de Derecho y experta en violencia contra mujeres y niñas en la Universidad de Durham, teme que la situación no haga más que empeorar. "OpenAI anunció el pasado noviembre que permitiría contenido erótico en ChatGPT. Lo que ha ocurrido en X demuestra que cualquier nueva tecnología acaba utilizándose para abusar y acosar a mujeres y niñas. ¿Qué veremos entonces en ChatGPT?".
"Las mujeres y las niñas son mucho más reticentes a utilizar la IA, algo que no debería sorprender. No la perciben como una tecnología nueva y emocionante, sino como una nueva vía para el acoso y el abuso, y como un intento más de expulsarlas de los espacios digitales", expone.
Porno de castigo
Jess Asato, diputada laborista por la región británica de Lowestoft, lleva tiempo denunciando este problema y asegura que sus detractores han estado creando y difundiendo con entusiasmo imágenes explícitas suyas, incluso después de que se impusieran restricciones a Grok. "Me sigue ocurriendo y se sigue publicando en X porque hablo de ello", añadió. Asato subraya además que el abuso mediante deepfakes generados con IA lleva años afectando a las mujeres y no se limita a Grok. "No sé por qué se ha tardado tanto en actuar. He hablado con muchísimas víctimas de situaciones mucho, mucho peores", afirma.
Aunque la cuenta pública de Grok en X ya no genera imágenes para quienes no tienen una suscripción de pago y parece que se han introducido barreras para impedir la creación de imágenes en bikini, la aplicación para móviles de Grok (desligada de la red social) presenta muchas menos restricciones.
Ese componente performativo es clave y deja muy claras las connotaciones misóginas: castigar o silenciar a las mujeres
Anne Craanen - investigadora del ISD especializada en violencia de género facilitada por la tecnología
Los usuarios aún pueden crear imágenes sexualmente explícitas a partir de fotografías de personas reales completamente vestidas, sin las limitaciones para los usuarios de pago que se han introducido en X. Si se le pide que transforme una foto en una escena con atuendo de bondage, lo hace. También sitúa a mujeres en posiciones sexualmente degradantes y las cubre con sustancias blancas similares al semen.
Según Craanen, el objetivo de crear desnudos falsos no suele ser solo compartir imágenes eróticas, sino el espectáculo en sí, especialmente cuando esas imágenes inundan plataformas como X. "Es el propio toma y daca, el intento de acallar a alguien diciendo: 'Grok, ponla en bikini'", explica.
"Ese componente performativo es clave y deja muy claras las connotaciones misóginas: castigar o silenciar a las mujeres. Y eso tiene además un efecto en cascada sobre las normas democráticas y el papel de las mujeres en la sociedad", concluye.
Fuente: elDiarioAr