Europa abre la puerta a nuevas demandas contra los gigantes de la IA al obligarlos a divulgar con qué datos entrenan sus modelos
Europa quiere que inteligencia artificial y transparencia vayan de la mano. La Comisión Europea ha publicado este jueves la esperada plantilla que exige a todos los proveedores de esta tecnología divulgar los datos con los que han entrenado sus modelos, una obligación que puede tener repercusiones en todo el mundo.
En mayo del año pasado, la Unión Europea culminó la aprobación de la pionera ley que regula la IA según sus riesgos. El próximo 2 de agosto entran en vigor las normas que afectan a la la IA de propósito general, grandes modelos de lenguaje multimodales que, como ChatGPT (OpenAI), Gemini (Google), Grok (xAI), Llama (Meta) o Claude (Anthropic), pueden realizar una amplia gama de tareas.
«Los proveedores de modelos de IA de uso general deberán […] Prepare y ponga a disposición del público un resumen suficientemente detallado sobre el contenido utilizado para capacitar al modelo de uso general, de acuerdo con una fuerza laboral proporcionada por la oficina de IA «, dice el artículo 53 del uno conocido como el conocido como Acto de IA. Ese contenido puede ser extraído de los dos datos de Internet según lo compilado por las empresas a través de interacciones de usuario con sus productos.
Derechos de autor y propiedad intelectual
La plantilla presentada hoy clarifica que los gigantes tecnológicos estarán obligados a hacer públicos los datos que alimentan sus sistemas, algo que hasta ahora han rechazado alegando, en la mayoría de casos, que se trata de un secreto comercial. La opacidad de estas compañías ha dificultado saber con precisión qué chatbots o modelos conversacionales de IA se han entrenado ilícitamente con contenido protegido por los derechos de autor, desde obras literarias a canciones o artículos periodísticos.
La obligación establecida por Bruselas permitiría a los reguladores saber qué datos se explotan y abriría la puerta a la presentación de reclamaciones por todo tipo de infracciones, así como de multas para esas firmas. En enero de 2024, OpenAI reconoció en un encuentro con legisladores británicos que «sería imposible entrenar los modelos actuales de IA sin material con copyright«.
«El objetivo es aumentar la transparencia sobre el contenido utilizado para la formación de modelos de IA de uso general, incluido el texto y los datos protegidos por la ley, y facilitar a las partes con intereses legítimos, incluidos los titulares de derechos, el ejercicio y la aplicación de sus derechos en virtud del Derecho de la Unión», reza el documento.
Respeto a los derechos fundamentales
La Comisión espera que la plantilla tenga «un importante valor jurídico para la correcta aplicación de la Ley de IA» y permita «aplicar, cuando proceda, medidas de mitigación para garantizar el respeto de los derechos fundamentales a la no discriminación y a la diversidad lingüística y cultural».
La plantilla ha sido elaborada tras consultar a una «amplia gama de partes interesadas», un total de 111 actores entre los que se incluyen «proveedores de modelos de IA de uso general, asociaciones empresariales, organizaciones de titulares de derechos, el mundo académico, la sociedad civil y las autoridades públicas».
Suscríbete para continuar leyendo
Puedes consultar la fuente de este artículo aquí