¿Protección democrática o barrera legal para la innovación?
El gobierno español ha decidido estar en la primera línea del debate sobre inteligencia artificial con una propuesta legislativa que impone sanciones multimillonarias (Hasta 35 millones de euros o el 7% del volumen de negocios global de la empresa) a aquellos que no etiquetan adecuadamente los contenidos generados por la inteligencia artificial.
La norma, presentada como pionera en Europa, tiene como objetivo garantizar que el ciudadano pueda distinguir en todo momento entre lo que ha sido creado por un humano y lo que es el resultado de un algoritmo. En el papel, el objetivo parece encomiable: En un contexto de información errónea creciente, las campañas electorales contaminadas por Bulos y la proliferación de Deepfake Cada vez más sofisticado, el etiquetado obligatorio podría convertirse en una herramienta para reforzar la confianza en el espacio público.
Sin embargo, la pregunta clave es en qué medida una medida de este tipo puede ser efectiva en la práctica y cuáles serán sus verdaderas consecuencias para la economía digital en España. La experiencia muestra que, Cuando un gobierno intenta adelantarse a la evolución tecnológica con estándares estrictos, corre el riesgo de generar un marco que se vuelve obsoleto demasiado rápido O que introduce los costos de cumplimiento para asumir, especialmente para pequeñas y medianas empresas.
España ha decidido ir un paso más allá en términos de contenido generado artificialmente, buscando liderar la respuesta a los peligros planteados por la información errónea.
A El defake electoral diseminado de un servidor en otro país, por ejemplo, difícilmente se verá afectado por una sanción impuesta por la Agencia Española para la Supervisión de Inteligencia Artificial (Aesia). La realidad es que la tecnología no entiende las fronteras, mientras que las multas lo son.
El regulador europeo ya había marcado una ruta con la aprobación de la Ley AI, que clasifica los usos de la inteligencia artificial en función de su nivel de riesgo, y establece obligaciones más estrictas para los sistemas considerados de alto impacto. España ha decidido ir un paso más allá en términos de contenido generado artificialmentebuscando liderar la respuesta a los peligros planteados por la información errónea.
Pero se debe preguntarle si esta iniciativa responde a una estrategia clara, o más bien a un impulso político por parecer «más duro que nadie» ante un problema que preocupa al ciudadano promedio: Básicamente, legislate basado en la supuesta «alarma social». En el nivel comunicativo, las sanciones de decenas de millones de euros suenan efectivos. Sin embargo, en el nivel operativo, la aplicación es más complicada.
Las grandes plataformas tecnológicas, que ya están acostumbradas a tratar con diversos marcos regulatorios, Pueden mostrar sistemas de etiquetado más o menos efectivos, aunque en muchos casos con limitaciones técnicas claras: La generación y manipulación de imágenes, videos o textos es tan simple que es difícil dibujar una marca digital que no se pueda borrar o alterar.
Para nuevas empresas y PYME, por otro lado, este tipo de requisitos puede ser un obstáculo considerable: Además del costo de implementar soluciones de detección o etiquetado, enfrentan incertidumbre legal Lo que se considera exactamente «contenido generado por la inteligencia artificial» y cómo aparecer al usuario final. El riesgo, por lo tanto, es que el marco legal termina al desalentar la innovación en un sector en el que España, en sí misma, no está precisamente a la vanguardia.
En paralelo, el propio gobierno ha aprobado subsidios por valor de aproximadamente 150 millones de euros Para ayudar a las empresas a desarrollar o integrar tecnologías de inteligencia artificial. Aquí se observa una contradicción interesante. Por un lado, se intenta impulsar la innovación con fondos públicos, mientras que, por otro, está amenazado con sanciones desproporcionadas que pueden disuadir a los mismos actores que están destinados a beneficiarse.
El dilema que enfrenta España es, en última instancia, el mismo que Europa enfrenta en su conjunto: cómo proteger a los ciudadanos de los riesgos reales de la inteligencia artificial
No es extraño que el ecosistema empresarial se queje de que la estrategia del gobierno carece de coherencia: ¿queremos alentar la adopción de la inteligencia artificial en la economía española, o queremos? Crear un marco tan rígido que termine conduciendo A inversores y empresarios?
En países como los Estados Unidos o el Reino Unido, existe el debate sobre el etiquetado de contenido generado por la inteligencia artificial, pero se aborda desde la perspectiva de la autorregulación, la cooperación con la industria y el desarrollo de estándares técnicos abiertos. En la Unión Europea, sin embargo, La lógica de la regulación preventiva predomina, Esperando que un marco estricto evite el daño futuro.
El problema es que, si los marcos son demasiado onerosos, el resultado es que la innovación se mueve hacia otras geografías con más flexibles y fáciles de cumplir. Europa ya ha vivido esta experiencia en otras áreas de tecnología: pudimos diseñar la regulación más avanzada en asuntos de privacidad con el GDPR, Pero no para crear un ecosistema digital capaz de competir con los gigantes estadounidenses o chinos.
El dilema que enfrenta España es, en última instancia, el mismo que Europa enfrenta en su conjunto: Cómo proteger a los ciudadanos contra los riesgos reales de la inteligencia artificial sin sofocar las posibilidades de que el continente desarrolle sus propios campeones tecnológicos. El etiquetado obligatorio del contenido generado por la inteligencia artificial puede ser un instrumento útil, pero difícilmente resolverá el problema de la información errónea global y puede agregar obstáculos significativos a un tejido comercial que necesita flexibilidad para crecer.
La lucha contra la información errónea no se gana con multas astronómicas o estándares nacionales que son imposibles de aplicar en la práctica. Ganas con educación digital, con alfabetización mediática, con transparencia de las plataformas y con cooperación internacional. Convertir a Aesia en un contenido que etiqueta a la policía puede sonar bien en los titulares, pero no parece la mejor manera de colocar a España a la vanguardia de la revolución tecnológica. Más bien, corre el riesgo de consolidar una vez más el papel que ya conocemos demasiado bien: el de un continente que regula mucho, pero innova poco.
*** Enrique Dans es profesor de innovación en IE University.
Puedes consultar la fuente de este artículo aquí