En los últimos días, Grok, el chatbot de inteligencia artificial desarrollado por xAI e integrado directamente en X, se convirtió en el epicentro de una ola regulatoria global. El modelo fue utilizado para generar de manera masiva imágenes sexualizadas, incluidas representaciones falsas de menores, lo que activó investigaciones, bloqueos y restricciones en distintos países de Europa, Asia, Oceanía y América.
La polémica señala el momento en que una inteligencia artificial desplegada a escala social empezó a producir violencia sexual de forma continua y verificable. No se trata de una falla técnica ni de un error de diseño, sino de la conversión de un modelo generativo en infraestructura de daño sistémico, operando dentro de una plataforma masiva sin capacidad real de contención. En pocas semanas, el problema dejó de leerse como exceso de usuarios o mal uso individual y empezó a comportarse como sistema.
Te recomendamos: El Mundial ya no empieza en la televisión
Grok fue utilizado para generar miles de imágenes sexualizadas a una velocidad que ningún esquema de moderación logró contener. La función conocida como “undressing” operaba como un mecanismo de producción masiva y automatizada de cuerpos inexistentes que circulaban libremente por la plataforma y, por extensión, por toda la red. Mientras desde la empresa dirigida por Elon Musk se insistía en que el modelo simplemente seguía instrucciones y cumplía con la ley, los reguladores observaron que el contenido no era solo alojado, sino fabricado dentro de la propia plataforma.
Los deepfakes sexuales suelen reducirse al lenguaje de lo inapropiado, análisis que resulta insuficiente. Desde la psicología del trauma, se describen como una forma de agresión que no requiere contacto físico para producir efectos profundos. La experiencia de ver una imagen falsa circulando con tu rostro implica pérdida de control, ansiedad persistente, vigilancia constante del entorno digital y una sensación de exposición que no se disuelve con la eliminación del archivo. El daño no está solo en la imagen, sino en la ruptura de la identidad y en la imposibilidad de volver a un estado anterior.
La inmensa mayoría de los deepfakes sexuales tiene como víctimas a mujeres. La sexualización forzada ha sido durante siglos una herramienta de disciplinamiento, castigo y silenciamiento. La inteligencia artificial no creó ese patrón, pero sí lo volvió replicable sin límite temporal y sin costo marginal. La violencia dejó de depender del esfuerzo humano para operar como infraestructura cibernética.
Esto te interesa: La infraestructura silenciosa que sostiene a México cuando tiembla
El caso Grok también expone una zona gris en los marcos legales. Durante años, la responsabilidad jurídica de las plataformas se construyó sobre la idea de intermediación: el usuario producía, la plataforma alojaba. Ese esquema se vuelve insuficiente cuando la imagen no preexiste y es el propio modelo quien la genera a partir de una instrucción mínima, amplificando el daño desde el diseño.
En distintas regiones del mundo, las respuestas no se hicieron esperar. En Europa y el Reino Unido, la discusión se centró en que, cuando una inteligencia artificial integrada a una plataforma produce contenido ilegal, la responsabilidad recae en quien despliega el modelo. Bajo esa lógica opera el Digital Services Act, un marco regulatorio vinculante que redefine las obligaciones de las grandes plataformas digitales que operan en la Unión Europea, en particular aquellas con alcance masivo. Su reglamento habilita sanciones de gran escala cuando el riesgo deja de ser incidental y se vuelve estructural, incluida la posibilidad de restringir el acceso a plataformas que incumplen de manera reiterada.
En varios países de Asia, la respuesta fue directa. Bloqueos, prohibiciones y exigencias estrictas de trazabilidad se activaron de inmediato, sobre todo cuando hay menores involucrados. Australia abrió investigaciones bajo la figura de abuso basado en imágenes. En Estados Unidos, las primeras denuncias ya no buscan solo aclarar responsabilidades, sino llevar la discusión al terreno del litigio, poniendo a prueba la responsabilidad civil de los modelos generativos.
En América Latina, la reacción ha sido más lenta. Existen discusiones legislativas sobre violencia digital y protección de la intimidad, pero el caso Grok vuelve evidente la brecha entre el ritmo normativo y la velocidad tecnológica. La región sigue pensando estos fenómenos como eventos aislados, cuando ya operan como estructuras persistentes.
La contestación de X, en voz de Musk, llegó cuando el daño ya era evidente. En lugar de apagar la función y reconocer su impacto, decidió justificarla detrás de un servicio premium, como si el riesgo pudiera administrarse cobrando por él. La violencia no desapareció; cambió de forma y de precio. Para los reguladores, esta historia abre una discusión sobre obligaciones legales y responsabilidad directa. Para las víctimas, el daño se convierte en exposición masiva que se volvió parte del modelo de negocio.
También lee: Predicciones 2026: la tecnología deja de asistir y empieza a decidir
México todavía no ha reaccionado de manera explícita. En un país donde la violencia digital contra mujeres es una experiencia cotidiana y donde los mecanismos institucionales suelen llegar tarde, la incorporación masiva de modelos capaces de generar deepfakes sexuales en segundos se perfila como una nueva herramienta de abuso, censura y control ejercida desde sistemas automatizados.
Este caso no revela un exceso, sino cómo la violencia dejó de ser un efecto colateral y empezó a integrarse al diseño social en la era de la hiperconectividad. La inteligencia artificial ya mostró lo que puede producir.
¿Qué estamos dispuestos a tolerar, exigir y detener antes de que el sistema lo normalice?