Interesante

Inteligencia artificial, ¿abierta para todos o cerrada para beneficio de unos pocos?

Inteligencia artificial, ¿abierta para todos o cerrada para beneficio de unos pocos?
Avatar
  • Publishedfebrero 19, 2025


A principios de los años ochenta, mis padres trajeron a casa una computadora doméstica conectada a la pantalla del televisor. Eso me motivó a «jugar» científico. Me enorgullecía publicar en esos primeros programas simples de las revistas de computadoras sobre cómo dibujar funciones matemáticas, monitorear el microprocesador o las animaciones de código de máquina rudimentarios y los juegos de computadora.

Todo se publicó, incluyendo una explicación detallada de cómo se realizó el trabajo y el código fuente completo del programa, para que cualquiera pudiera copiarlo, probarlo, comprenderlo, reproducirlo y modificarlo fácilmente para cualquier propósito. Esta es la versión de ciencia abierta más primaria, concebida como una empresa universal colectiva y acumulativa.

Los principios de la ciencia abierta

La ciencia abierta se refiere a la práctica de hacer que todas las etapas del proceso científico transparente y accesible para otros. Esto incluye la publicación de artículos de investigación con sus datos, métodos detallados, bases teóricas y prácticas, experimentos, así como cualquier información o herramienta necesaria para poder repetir la investigación.

Los objetivos son permitir la reproducibilidad, promover la colaboración y facilitar la construcción del conocimiento previo para avanzar en el conocimiento. Esto es esencial para que la investigación científica sea creíble, ética y accesible, y puede revisarse, validar y desarrollar a partir de ella.

¿Qué le pasa a la IA?

Como en cualquier disciplina, la ciencia abierta en la inteligencia artificial es la única forma de garantizar la reproducibilidad y la transparencia y, por lo tanto, su progreso público y su uso consistente con los principios colaborativos y acumulativos y en beneficio de la humanidad.

La gran mayoría de los que se dedican a la investigación en ciencias informáticas creen en la publicación de sus avances siguiendo estos principios. El código abierto es uno de los elementos importantes, aunque no el único, de cualquier herramienta de computadora que quiera fomentar el avance científico.

Especialistas de esta área de conocimiento han estado creando varias organizaciones sin fines de lucro para definir con precisión en qué consiste la investigación y el desarrollo en su campo.

Por ejemplo, en 1998, se fundó la iniciativa de código abierto (Iniciativa de código abierto, OSI), y su definición de código abierto (código abierto) es el estándar internacional más aceptado.

Para que un programa se considere de código abierto, no es suficiente facilitar el acceso al programa compilado, sino también a todo el código fuente. Tengamos en cuenta que este último, también llamado lenguaje de alto nivel, es un programa escrito en un lenguaje de programación legible por una persona. Mientras tanto, el código de compilación, o el lenguaje de la máquina, es una traducción del código fuente a un archivo binario que un circuito electrónico puede ejecutarlo, pero una persona no puede entenderlo.

Otro requisito de código abierto es que permite su modificación y redistribución en estos mismos términos y para todos los usos, incluido el comercial.

El caso de las compañías de tecnología

Hay muchas empresas que crean riqueza, benefician a la sociedad y también se benefician de la sociedad. Sin embargo, muy pocos invierten en investigación, a menos que crean que recuperarán la inversión.

Es común que las compañías tecnológicas privadas aprovechen la investigación pública (sufrida por el contribuyente) y lo usen para desarrollar productos con los que obtienen grandes beneficios. La economista Mariana Mazzucato generalmente describe en detalle un ejemplo paradigmático: el caso del iPhone de Apple.

Con empresas dedicadas a la inteligencia artificial, esta realidad es aún más sorprendente. Puede ser natural basar sus productos en ideas e investigaciones subcontratadas publicadas anteriormente, pero resulta que la mayoría de los modelos de IA más avanzados son meras cajas negras impregnables: su lógica interna no se explica, su operación o equidad no está garantizado y sus La equidad no está garantizada, analice el código fuente.

Muchos de los productos más populares, como ChatGPT o el moderno traductor de objetivos sin costuras, están teniendo estas características indeseables, aunque se anuncian como artículos de ciencias abiertas.

Depseek no es de código abierto

Algunos más recientes, como Deepseek, intentan superar la competencia que permite que el código de compilación tenga, pero esto no es de código abierto y no proporciona avances para la investigación científica.

Es decir, aunque Deepseek se anuncia como «código abierto», no permite el acceso al código fuente, sino solo al binario (compilación). No puede leer, comprender, modificar. Es por eso que nadie puede mejorar este programa. Solo es posible usarlo como cliente de una empresa, no como investigador de ciencias de la investigación.

Dado este panorama, la realidad es que la falta de transparencia y reproducibilidad de estos modelos de computadora dificulta el progreso científico y erosiona la confianza en la investigación en la IA.

El ejemplo de Rosetta y Alfafold 3

David Baker, Demis Hassabis y John M. Jumper recibieron el Premio Nobel de Química de 2024 por la predicción de la estructura de la proteína. El software Rosetta nació a fines del siglo XX como un pequeño proyecto en el Laboratorio de David Baker, en la universidad pública principal del estado de Washington. El código fuente fue escrito y distribuido en el lenguaje de alto nivel, que cualquier especialista puede leer, comprender y modificar, y centrado en la predicción Ab initio de la estructura de pequeñas proteínas.

A partir de estas ideas y utilizando las bases de datos de proteínas publicadas por la comunidad de investigación, la Compañía Google DeepMind desarrolló un poderoso análisis de datos estadísticos a través de su código IA Alfafold y Alfafold 2.

En mayo de 2024, Deepmind presentó su modelo Alfafold 3 a través de un artículo en la revista NaturalezaLo que sorprendentemente permitió que DeepMind mantuviera el código de software no disponible, a pesar de su propia política editorial, que se centra en «hacer rápidamente los lectores de materiales, datos, código y protocolos asociados sin calificaciones inadecuadas».

Alphafold tampoco es de código abierto

Más de mil miembros de la comunidad científica especializadas en el área firmaron una carta enviada a Naturaleza Porque dicho artículo «no cumple con las normas de la comunidad científica para ser utilizables, escalables y transparentes».

Seis meses después, DeepMind dejó el código disponible bajo una licencia de Creative Commons restrictiva. Por lo tanto, sus condiciones no cumplen con la definición de «código abierto» del OSI. DeepMind no publica los pesos (el resultado del entrenamiento de su red neuronal) del modelo. Para obtenerlos, debe solicitarse y es la compañía en sí la que decide si les da o no en cada caso. Sin ellos, no es posible usar Alfafold 3 para predecir la estructura de la proteína.

También prohíbe explícitamente el uso de los parámetros o resultados del modelo Alfafold 3 para actividades comerciales, incluida la capacitación de modelos biomoleculares similares.

Este enfoque trata de cumplir en parte los intereses científicos y comerciales de la empresa, pero debe estar claro que no nos enfrentamos a un proceso científico abierto. Un lastre para el avance del conocimiento científico, que pertenece a toda la humanidad.La conversación

Victor Etxebarria Ecenarro, profesor, Universidad del País Vasco / Euskal Herriko Unibertsitatea

Este artículo fue publicado originalmente en la conversación. Lea el original.



Puedes consultar la fuente de este artículo aquí

Compartir esta noticia en: