De vergüenza, xAI sigue sin arreglar Grok
a veces, La empresa no comete errores: comete omisiones. A veces esta negligencia se mide no sólo por su efecto técnico sino también por el daño real que causa a un grupo específico de personas. Grok, el sistema de inteligencia artificial de xAI, es ahora un claro ejemplo de cómo no se debe implementar la tecnología. Era capaz de generar imágenes sexualizadas de personas reales (incluso menores de edad) sin consentimiento, por lo que su comportamiento no fue frenado. Lo que se esperaba que fuera una respuesta contundente resultó ser un espejismo: restricciones más superficiales, más excusas y un sistema que sigue funcionando prácticamente de la misma manera… pero ahora en un modelo de pago. El problema aún no está resuelto. Ha sido disfrazado. Y las empresas responsables siguen haciendo la vista gorda.
Hace unos días ya os contamos cómo funciona Grok. Se ha utilizado para crear contenido explícito utilizando fotografías reales.cómo se generan imágenes que parecen ser menores y cómo respondió la empresa limitando la funcionalidad de generación a cuentas verificadas. En lugar de resolver el problema, esta decisión fue condenada como Intentos de monetizar el abuso: Quienes paguen podrán seguir generando contenido, mientras que los no suscriptores recibirán un mensaje invitándolos a verlo. Lo que debería haber resultado en una revisión completa, un desmantelamiento de emergencia o un rediseño garantizado del modelo fue un acceso limitado… pero funcional.
Esta semana, Elon Musk y su equipo anunciaron nuevas restricciones sobre el uso de Grok en X: Geobloqueo, filtros para impedir la edición de imágenes de lencería o bañadores y nuevas advertencias Al intentar procesar fotografías. Pero el resultado de todo esto es Otra capa de maquillaje. La aplicación Grok y los sitios web externos aún te permiten crear fácilmente imágenes de desnudos. Investigadores forenses de IA, así como periodistas de medios como Wired, probaron el sistema y descubrieron que al cargar una imagen, se le pedía a la persona que «se vistiera» o «desnudara» y se obtenían los resultados deseados, incluso en una configuración gratuita. Los bloqueos, cuando existen, son inconsistentes. En muchos casos, basta con introducir su fecha de nacimiento para obtener acceso completo.
Estos no son exploits hipotéticos ni avanzados. Los investigadores han podido crear cuerpos desnudos realistas. El sistema permite modificar imágenes de personas reales, colocar ropa reveladora o eliminarla por completo, No existe ningún mecanismo eficaz para prevenirlo.. Esta no es una IA que estuvo comprometida, sino una IA que nunca fue bloqueada. Las «medidas» adoptadas por X sólo se aplicaron en determinados ámbitos, sólo dentro de su propia red social, y ni siquiera de forma coherente. Se han hecho intentos de proteger la imagen pública, pero el núcleo del problema (los modelos generativos incontrolados) permanece intacto.
Mientras tanto, la empresa sigue utilizando un lenguaje engañoso. Elon Musk ha llegado a afirmar que es posible generar un «torso desnudo» humano imaginario si se considera Equivalente al contenido que aparece en películas con clasificación Ry las políticas varían según la región. Pero aquí no estamos hablando de ficción ni de matices legales. Hablamos de una inteligencia artificial que genera imágenes no consensuadas y de aspecto realista, accesibles a cualquier usuario con unos mínimos conocimientos. También analizamos informes de múltiples organizaciones sobre contenido aparentemente menor que se ha distribuido a través de Grok sin obstáculos técnicos importantes.
Lo peor es que a pesar del escándalo, el producto sigue funcionando. Grok sigue generando. Ahora lo hace desde una posición más peligrosa.: ha pasado de ser una herramienta accesible a un beneficio pago. No se corrige su arquitectura, no se limita su capacidad y no se audita su comportamiento. El precio de entrada acaba de aumentar.. El sistema, que permite generar sin consentimiento imágenes de mujeres desnudas, celebridades manipuladas o cuerpos infantiles, permanece en línea. Y lo único que te separa de alguien que quiere volver a utilizarte es una tarjeta de crédito.
La tecnología puede fallar. Pero cuando se documenta una falla, cuando el daño es real y cuando la empresa responsable decide no sólo no intervenir sino explotar el problema, Lo que pasó ya no fue un error técnico. esto es complicidad. Grok no es una herramienta experimental, sino una plataforma funcional conectada a una gran base de usuarios, implementada por una empresa que decide mirar para otro lado. El abuso continúa ocurriendo. Las víctimas siguen acumulándose. Y en lugar de protegerlos, la empresa optó por convertir el silencio en un modelo de negocio.
Puedes consultar la fuente de este artículo aquí