La UE investiga a X por la generación de imágenes explícitas y deepfakes con Grok

Una imagen que muestra la sede de la Comisión Europea en Bruselas con la bandera de la UE. En primer plano, un hombre sostiene una tableta con el logotipo de X y 'GROK AI', con un gráfico superpuesto que anuncia "EU INVESTIGATION ENQUÊTE UE - X - GROK - DEEPFAKES

Bruselas estrecha el cerco sobre X: La generación de deepfakes por Grok desata una investigación de alto nivel en la UE

La relación entre los reguladores europeos y las grandes plataformas tecnológicas ha alcanzado un nuevo punto de tensión en los últimos días. En este escenario crítico, la UE investiga Grok deepfakes, formalizando una acción exhaustiva contra X (anteriormente conocida como Twitter). La Comisión Europea ha centrado su atención en el asistente de inteligencia artificial integrado en la red social, cuyo motor de generación de imágenes ha sido señalado por facilitar la difusión masiva de contenido explícito no consensuado. Fuente oficial.

Esta maniobra regulatoria se ampara en la Ley de Servicios Digitales (DSA), una normativa que exige estándares de seguridad rigurosos a las plataformas consideradas sistémicas, buscando determinar si la compañía ha incumplido sus obligaciones de diligencia debida.

Contexto legal: La UE investiga Grok deepfakes bajo la DSA

La acción emprendida por Bruselas no es un aviso superficial. X está catalogada como una «Plataforma en Línea de Muy Gran Tamaño» (VLOP), lo que implica que debe cumplir con los artículos 34 y 35 de la DSA para mitigar riesgos sistémicos como la violencia de género y la manipulación del discurso cívico. Si quieres mantenerte al día sobre cómo estas normativas afectan al usuario, Sigue leyendo aquí.

Actualmente, los reguladores argumentan que el lanzamiento de las últimas versiones de Grok se realizó sin los «guardarraíles» necesarios. Si la Comisión confirma que existió negligencia, la compañía se enfrenta a sanciones económicas severas de hasta el 6% de su facturación global anual, transformando este caso en un hito sancionador.

El factor técnico por el que la UE investiga Grok deepfakes

Para comprender la gravedad de la acusación, es necesario analizar la infraestructura técnica. La versión actual de Grok integra el modelo FLUX.1, conocido por su capacidad superior para crear imágenes fotorrealistas y su fidelidad a las instrucciones textuales, operando bajo una filosofía distinta a la de sus competidores.

Una arquitectura «sin censura»

Mientras que modelos como DALL-E 3 poseen filtros estrictos, Grok ha adoptado una postura permisiva. Investigaciones técnicas sugieren que es fácil eludir las barreras básicas mediante «prompts» sencillos. Esto ha permitido la generación de imágenes comprometedoras de figuras políticas y celebridades sin que el sistema active bloqueos automáticos.

El peligro de la generación en tiempo real

Además, la razón por la que la UE investiga Grok deepfakes con tanta urgencia es la inmediatez. La capacidad de generar imágenes directamente en los hilos de respuesta facilita el acoso instantáneo, permitiendo a los «trolls» inundar conversaciones con material ofensivo difícil de moderar manualmente.

El auge de la «Nudificación» y el impacto social

Más allá de las figuras públicas, la preocupación se extiende a la ciudadanía general. Se ha detectado una tendencia alarmante conocida como «nudify» o desnudo digital forzado, donde se utiliza la IA para crear pornografía no consensuada (NCII) a partir de fotos de personas reales.

La falta de restricciones robustas en Grok ha facilitado que estas herramientas sean utilizadas contra mujeres no famosas, violando gravemente su privacidad. Este fenómeno es lo que los reguladores califican como un fallo en la mitigación de la violencia de género digital.

Un historial de advertencias ignoradas

La postura de Bruselas se ve reforzada por los antecedentes de la plataforma, que en el pasado tardó horas en contener la viralización de pornografía falsa de celebridades. La integración posterior de capacidades de imagen avanzadas sin una mejora proporcional en seguridad sugiere, según los críticos, una decisión de priorizar la funcionalidad «anti-woke» sobre la seguridad del usuario.

Diferencias clave con el RGPD

Es crucial distinguir esta investigación de otros frentes legales. Mientras que Irlanda presiona sobre el uso de datos para el entrenamiento de la IA (bajo el RGPD), la investigación actual se centra en el producto final. La UE investiga Grok deepfakes no por cómo aprende la máquina, sino por el daño real que sus creaciones pueden causar en la sociedad.

Un precedente para la IA Generativa

La investigación en curso marca un punto de inflexión. Europa está enviando un mensaje claro a Silicon Valley: la capacidad de generar imágenes realistas conlleva la responsabilidad legal ineludible de filtrar su abuso.

Si se dictamina que X lanzó una herramienta «insegura por diseño», podría forzar una reestructuración técnica no solo en Grok, sino en todos los modelos de IA que operan en el continente, poniendo fin a la era de la «innovación rápida sin control».

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Scroll al inicio