La Unión Europea alcanza un polémico acuerdo para recortar su regulación de la IA e incluye la prohibición de las apps que generan desnudos
A principios de 2024, la Unión Europea sacó pecho al aprobar la primera ley sobre inteligencia artificial del mundo. Dos años y un ciclo electoral después, Bruselas ha alcanzado este jueves un acuerdo interno para «simplificar» una regulación en su día descrita como «histórica» y cuyas principales medidas aún no habían entrado en vigor.
[–>[–>[–>El texto consensuado esta mañana entre los negociadores del Parlamento Europeo y la presidencia del Consejo de la UE combina exenciones a las normas que favorecen principalmente a sectores industriales estratégicos con nuevas protecciones. La más notoria es la prohibición de aquellas aplicaciones que utilicen IA para generar desnudos sintéticos de sus víctimas sin su consentimiento, unas recreaciones hiperrealistas también conocidas como deepfakes. Estas herramientas también pueden crear material de abuso sexual infantil.
[–> [–>[–>El pacto establece que la comercialización de este tipo de sistemas quedará completamente vetada. Esa restricción podría afectar a Grok, el modelo de IA generativa propiedad de Elon Musk, que a principios de año protagonizó un escándalo global al sexualizar, en tan solo 11 días, al menos tres millones de imágenes de personas reales, la mayoría de ellas mujeres, aunque también menores de edad. Las empresas tendrán hasta el 2 de diciembre de 2026 para adaptar sus sistemas.
[–>[–>[–>
Archivo – La presidenta de la Comisión Europea, Ursula von der Leyen / Philipp von Ditfurth/dpa – Archivo
[–>[–>[–>
Recorte a la ley
[–>[–>[–>
La simplificación legislativa, también conocida como Omnibus, supone un alivio principalmente para la industria digital, pero también para otros sectores afectados, pues aplaza la aplicación de todo tipo de obligaciones establecidas con la intención de proteger a los ciudadanos. Si el acuerdo provisional es aprobado formalmente tanto por el Parlamento como por el Consejo, tendrán más margen para adaptarse a la ley.
[–>[–>[–>La normativa pactada hace dos años fijó restricciones al uso de los sistemas de IA considerados de alto riesgo, desde el reconocimiento facial a aquellos desplegados para la contratación laboral o la gestión de infraestructuras críticas como el agua. Estas debían entrar en vigor el 2 de agosto de 2026. Sin embargo, el acuerdo fijado hoy aplaza esa aplicación un año hasta el 2 de agosto de 2027.
[–>[–>[–>
También se pospondrá hasta el 2 de diciembre de 2026 la medida que obliga a las empresas de IA —como OpenAI, Google o Anthropic— a marcar los contenidos sintéticos que generan sus productos —como ChatGPT, Gemini o Claude— para facilitar tanto su detección como su rastreo, considerada capital para minimizar su impacto como amplificador de la desinformación.
[–>[–>
[–>
Un usuario consulta ‘apps’ de chatbot de IA como ChatGPT (OpenAI), Claude (Anthropic), Gemini (Google), Perplexity, Copilot (Microsoft), Meta AI, Grok (xAI) o DeepSeek. / Philip Dulian / DPA
[–>[–>[–>
Además, el texto también elimina solapamientos legislativos. Por ejemplo, las industrias que utilizan sistemas de IA para la maquinaria y que ya cumplen con las normas de seguridad sectoriales no deberán adaptarse a la AI Act. Ese espaldarazo al sector privado europeo también se traducirá en una ampliación de las exenciones de las pequeñas y medianas empresas (pymes) para eliminar barreras regulatorias y «apoyar su crecimiento» económico.
[–>[–>[–>
«Para que Europa se convierta en un continente de la IA, debemos fomentar la innovación, apoyar a las empresas emergentes y en expansión, y facilitar el desarrollo de la IA en Europa», ha señalado la conservadora sueca Arba Kokalari, coponente del acuerdo y miembro de la Comisión de Mercado Interior y Protección del Consumidor.
[–>[–>[–>
Suscríbete para seguir leyendo
Puedes consultar la fuente de este artículo aquí