los derechos humanos entran en el diseño de la tecnología
Europa busca su propia manera de convivir con la inteligencia artificial, lejos tanto del laissez faire de Silicon Valley como del control férreo de Pekín. En ese intento, la Cátedra Internacional ENIA, con sede en Madrid, está poniendo cifras y argumentos a cuestiones muy concretas: quién responde cuando una IA causa daño, qué pasa cuando diagnostica mejor que un médico, cómo se corrigen los sesgos de género y de qué forma la ética puede pasar del papel al diseño mismo de los sistemas.
[–>[–>[–>Hace apenas dos años, hablar de “ética en inteligencia artificial” sonaba a buenas intenciones. Hoy, según revelan investigaciones de la Cátedra Internacional ENIA en IA Generativa, de la Universidad CEU San Pablo, dirigida por Idoia Salazar (una de las voces más relevantes en España y Europa en ética de la IA), esas directrices morales ya rigen contratos, deciden licitaciones públicas y determinan responsabilidades legales.
[–> [–>[–>La abogada especializada Gabriela Busellini, investigadora de esta cátedra financiada con fondos Next Generation de la UE, lo resume sin ambages: el “soft law” ha muerto. Lo que venía siendo una sugerencia educada se ha convertido en norma jurídica: el Reglamento Europeo de IA, las directrices de la OCDE y los estándares de la UNESCO empiezan a operar como un sistema legal de facto. Las empresas que ignoran estos marcos no solo incurren en riesgos reputacionales; pierden contratos, ven bloqueadas sus expansiones internacionales y se exponen a demandas cuyas bases legales se fundan en principios éticos que ahora tienen peso jurisprudencial. La diferencia entre lo que debe hacerse y lo que conviene hacerse se ha desvanecido.
[–>[–>[–>
Cuando la IA causa daño, ¿quién paga?
[–>[–>[–>
Una investigación de María L. Kubica, profesora de Derecho Civil y Chair del Spanish Hub del European Law Institute, desarrollada también en el marco de esta Cátedra, aborda el vacío legal que se abre cuando un sistema de inteligencia artificial autónomo causa daños reales. ¿Responde el desarrollador que entrenó el modelo? ¿El hospital que lo desplegó? ¿El usuario que confió en su diagnóstico? Los marcos tradicionales de responsabilidad civil, diseñados para humanos directamente controlables, se han quedado cortos.
[–>[–>[–>La solución que propone esta Cátedra es un régimen de responsabilidad distribuida basado en capacidad de control y beneficio obtenido. Quien más control tiene sobre el sistema y más se beneficia de su uso debe asumir más responsabilidad.
[–>[–>[–>
Este principio, de aplicarse, obligaría a crear seguros específicos para IA y sistemas de trazabilidad forense que documenten cada decisión algorítmica. Esa trazabilidad se apoya en los llamados logs, es decir, registros técnicos que guardan de forma cronológica qué hizo el sistema, con qué datos y en qué condiciones. No se trata de castigar la innovación, sino de asegurar que los costos de los fallos no recaigan siempre sobre el ciudadano desprotegido.
[–>[–>
[–>La IA que diagnostica mejor que los médicos (y el problema que eso crea)
[–>[–>[–>
En medicina, una investigación de Osvaldo Graña Castro y Tomás Chivato Pérez, realizada asimismo en el marco de esta Cátedra, ha constatado que, en casos específicos de asma pediátrica, ChatGPT supera en precisión diagnóstica a los médicos generales. El modelo procesa historias clínicas extensas, identifica patrones sutiles y sintetiza evidencia médica a una escala que ningún humano puede igualar.
[–>[–>[–>
Este avance plantea un dilema ético: si la IA es más precisa, ¿no sería negligente no usarla? Pero si la usamos, ¿qué pasa con la relación médico‑paciente? ¿Y con la responsabilidad cuando el modelo se equivoca? La Cátedra propone una supervisión humana significativa, no simbólica. Es decir, médicos que entienden los límites del modelo, sistemas que comunican su incertidumbre y protocolos automáticos de escalado a especialistas humanos cuando la confianza algorítmica es insuficiente. La precisión técnica no basta; el éxito está en integrar la IA sin deshumanizar la atención médica.
[–>[–>[–>La ética que se puede programar
[–>[–>[–>
Andrea Toscanini, otra investigadora clave de la Cátedra, ha analizado el desarrollo de “Jano by Iguales”, un proyecto que demuestra cómo los derechos fundamentales pueden integrarse directamente en el código de los sistemas de IA. La investigación, publicada en diciembre de 2025, traduce principios abstractos, como no discriminación o privacidad, en restricciones técnicas concretas durante el entrenamiento y despliegue de modelos.
[–>[–>[–>
Este enfoque marca el paso de la ética declarativa a la ética ejecutable. La “supervisión humana significativa” se convierte en umbrales de intervención obligatoria, registros técnicos (logs) que documentan decisiones y botones de emergencia que permiten a los seres humanos interrumpir sistemas en tiempo real sin destruir su utilidad.
[–>[–>[–>
Equidad de género que se traduce en euros
[–>[–>[–>
En el terreno económico, una investigación de Gabriela Busellini, realizada en el marco de la Cátedra, ha cuantificado que eliminar sesgos de género en sistemas de IA puede mejorar la productividad hasta un 25%. Los datos proceden del análisis de procesos de selección de personal, evaluación del desempeño y asignación de recursos, donde la perspectiva de género se revela como una ventaja competitiva medible.
[–>[–>[–>
Para ello, la Cátedra está desarrollando una plataforma experimental que analiza cómo la IA representa conceptos humanos y detecta sesgos en lo que los especialistas llaman embeddings lingüísticos: representaciones matemáticas de palabras y conceptos en un espacio numérico donde su posición refleja similitudes y diferencias. Si ese “mapa” está torcido, la IA reproducirá y amplificará prejuicios. Esta herramienta permitirá a empresas auditar sus modelos y evitar costosos conflictos laborales, mientras mejoran la retención del talento diversificado. La equidad algorítmica deja de ser un costo para convertirse en inversión.
[–>[–>[–>
Nuevo escenario
[–>[–>[–>
Lo que se está conformando en el ámbito tecnológico, más allá de la fiebre inversora y del despliegue descontrolado, es la convicción de que la inteligencia artificial ya no es un terreno sin leyes donde la innovación lo justifica todo. La Cátedra ENIA está demostrando que es posible innovar con seguridad, que la ética no es un freno sino un timón, y que los derechos fundamentales pueden codificarse no solo en leyes, sino en los propios algoritmos que moldearán nuestra vida diaria.
[–>[–>[–>
En el contexto internacional, y especialmente en el europeo, esta iniciativa funciona como un laboratorio adelantado de lo que puede ser una gobernanza democrática global de la IA generativa. Europa aspira a no limitarse a importar tecnología diseñada en Silicon Valley o Shenzhen, sino a fijar las reglas de juego: qué es aceptable, qué no lo es y en qué condiciones.
[–>[–>[–>
Mientras Estados Unidos prioriza la innovación rápida con regulación mínima y China despliega sistemas de IA con control estatal centralizado, Europa apuesta por un tercer modelo que sitúa los derechos fundamentales en el centro del diseño tecnológico. La Cátedra ENIA soporta desde la academia que la IA generativa debe desarrollarse siguiendo reglas claras, con controles efectivos y con una idea robusta de la dignidad humana.
[–>[–>[–>
Puedes consultar la fuente de este artículo aquí