Por Michelle Ballesteros Aguirre
El chatbot Grok, desarrollado por xAI de Elon Musk, está implementando ajustes restrictivos tras la revelación de que usuarios habían manipulado la herramienta para generar imágenes sexualizadas y “desnudos digitales” de personas, un escándalo que involucró incluso a menores de edad. Sin embargo, estas nuevas salvaguardas se aplican de manera inconsistente, dejando al descubierto los retos de gobernar una IA ya desplegada a gran escala.
La primera respuesta de la empresa fue limitar el acceso: la generación de imágenes dentro de la red social X quedó restringida a suscriptores Premium. Pero la adaptación parece ir más allá. Según un estudio reciente de la plataforma Copyleaks, el comportamiento de Grok ha cambiado sustancialmente: ahora es menos propenso a generar imágenes ante cualquier solicitud —incluso de usuarios premium— y, cuando lo hace, produce resultados más genéricos o sustituye la imagen por una descripción textual.
“Estos comportamientos indican que X está probando múltiples mecanismos para controlar la salida problemática, aunque con inconsistencias notorias“, concluyó el análisis.
Esta irregularidad encuentra eco en las observaciones de AI Forensics, una organización europea sin fines de lucro. Sus investigadores confirmaron una reducción en la creación de contenido sugerente (como imágenes tipo bikini) en los posts públicos de X, pero identificaron una brecha crítica: en los chats privados de Grok.com, los filtros parecen significativamente más permisivos, permitiendo un margen mayor para la generación de contenido de naturaleza sexual.
Frente a la polémica, la postura pública de Musk ha sido de negación absoluta. “No estaba al tanto de ninguna imagen desnuda de menores generada por Grok. Literalmente cero”, declaró en su plataforma X. Aseguró que el principio rector del chatbot es “obedecer las leyes” y rechazar cualquier petición ilegal. Previamente, el equipo de seguridad de xAI había emitido un comunicado genérico, reiterando sus políticas contra el contenido ilícito y la colaboración con autoridades, sin ahondar en las fallas técnicas que permitieron el abuso.
Este episodio subraya un patrón problemático en el sector de la IA generativa: el modelo de “despliegue rápido y corrección posterior”. Las empresas priorizan la velocidad de lanzamiento sobre garantías éticas sólidas, dejando que las herramientas se prueben en entornos reales con filtros insuficientes. Cuando surgen los abusos —y se vuelven virales—, se aplican restricciones de manera reactiva y, a menudo, desigual. Esta dinámica no solo erosiona la confianza de los usuarios, sino que convierte a la plataforma en un campo de pruebas de seguridad a costa del público.
La pregunta que permanece es si estos parches técnicos serán suficientes. La credibilidad de Grok y xAI dependerá de su capacidad para transitar de un enfoque reactivo a uno de diseño ético proactivo, donde las salvaguardas sean robustas, consistentes y estén integradas desde el núcleo del sistema, no añadidas como consecuencia de un escándalo.
