En los últimos días, la red social X permitió vivir una experiencia que, durante años, sólo estuvo reservada a la ciencia ficción.
Bastaba subir una foto y pedirle a Grok, el sistema de inteligencia artificial integrado a la plataforma de Elon Musk, que le “quitara la ropa” para encontrar un cuerpo que nunca existió pero que parecía real.
Luego de que cientos de miles de usuarios lo pidieran, en ocasiones para humillar o ridiculizar, la función fue parcialmente desactivada, pero dejó en claro el poder real de la manipulación visual de la Inteligencia Artificial y sus daños concretos pero… ¿quién se hace cargo de lo ocurrido?
La capacidad de Grok de quitar la ropa no fue un error ni un hackeo sino una función disponible en una de las redes sociales más influyentes del mundo y que, bajo la guía de su CEO, prioriza la experimentación y la satisfacción de los usuarios sin mecanismos de seguridad claros.
Entramos así a un nuevo año con la consolidación de una de las reglas de oro no escritas de Silicon Valley: es mejor pedir perdón que pedir permiso.

Manipulación de imágenes: una amenaza a la confianza visual
Este lema fue uno de los elementos que ayudó a construir una cultura digital acostumbrada a empujar los límites para ver hasta dónde se puede llegar; si hay consecuencias legales simplemente se paga la multa y se sigue adelante.
Por supuesto que la posibilidad de “desnudar” personas (en su inmensa mayoría mujeres e incluyendo a niñas y adolescentes) no inventó el deseo de humillar o cosificar, pero sí lo vuelve escalable, instantáneo y casi sin costo.
Lo que antes requería conocimientos técnicos o tiempo hoy está al alcance de cualquiera.
Los peligros son evidentes y no se agotan en la pornografía no consentida. La manipulación de imágenes erosiona algo más profundo: la confianza en lo visible.
Si una foto puede ser alterada de forma hiperrealista sin dejar rastros claros, entonces toda imagen se vuelve sospechosa por default y algunos de los consensos básicos de la sociedad comienzan a tambalear.

