Editor en La Ecuación Digital. Consultor de Innovación y Estrategia…
La inteligencia artificial (IA) de código abierto es omnipresente en la actualidad, aunque aún no existe un consenso claro sobre su significado exacto. La Open Source Initiative (OSI), considerada la autoridad en lo que respecta al concepto de código abierto, ha publicado una nueva definición con el objetivo de ayudar a los legisladores a desarrollar regulaciones que protejan a los consumidores de los riesgos asociados con la IA.
Aunque la OSI ha emitido numerosas directrices sobre lo que constituye tecnología de código abierto en otros campos, este es su primer intento de definir el término para los modelos de IA. Para formular esta definición provisional, reunió a un grupo de 70 expertos, entre ellos investigadores, abogados, legisladores, activistas y representantes de gigantes tecnológicos como Meta, Google y Amazon.
Según la OSI, un sistema de IA de código abierto debe poder utilizarse para cualquier propósito sin necesidad de obtener permiso, y los investigadores deben ser capaces de inspeccionar sus componentes y estudiar cómo funciona el sistema. Además, debe ser posible modificar el sistema para cualquier objetivo, alterar su salida y compartirlo con otros para su uso, con o sin modificaciones. El estándar también busca definir un nivel de transparencia en los datos de entrenamiento, el código fuente y los pesos de un modelo determinado.
La falta de un estándar de código abierto presentaba varios problemas. Aunque es evidente que las decisiones de OpenAI y Anthropic de mantener en secreto sus modelos, conjuntos de datos y algoritmos los convierte en IA de código cerrado, algunos expertos argumentan que los modelos de Meta y Google tampoco son realmente de código abierto. Esto se debe a licencias que restringen el uso de los modelos y a la falta de acceso público a los conjuntos de datos de entrenamiento. Meta, Google y OpenAI fueron contactados para conocer su opinión sobre la nueva definición, pero no respondieron antes de la publicación.
«Las empresas suelen utilizar de manera inadecuada el término cuando promocionan sus modelos», señala Avijit Ghosh, investigador en políticas aplicadas en Hugging Face, una plataforma para construir y compartir modelos de IA. Describir modelos como de código abierto puede hacer que sean percibidos como más confiables, incluso si los investigadores no pueden examinarlos de manera independiente.
El auge de la IA de código abierto se ha construido en gran medida sobre las donaciones de las grandes tecnológicas. Sin embargo, surge la pregunta de cuánto tiempo durará esta tendencia. Si estas grandes empresas se sienten amenazadas, podrían cerrar sus puertas, afectando la innovación fomentada por el acceso abierto al código detrás de los modelos generativos.
Ayah Bdeir, asesora senior de Mozilla y participante en el proceso de la OSI, menciona que ciertas partes de la definición fueron relativamente fáciles de acordar, como la necesidad de revelar los pesos del modelo (los parámetros que determinan cómo un modelo de IA genera una salida). Sin embargo, otras deliberaciones fueron más contenciosas, particularmente en lo que respecta a la divulgación pública de los datos de entrenamiento.
La falta de transparencia sobre el origen de los datos de entrenamiento ha dado lugar a innumerables demandas contra grandes empresas de IA, desde creadores de modelos de lenguaje como OpenAI hasta generadores de música como Suno, que no revelan mucho sobre sus conjuntos de entrenamiento, más allá de afirmar que contienen «información accesible públicamente». En respuesta, algunos defensores sostienen que los modelos de código abierto deberían divulgar todos sus conjuntos de entrenamiento, un estándar que Bdeir considera difícil de implementar debido a problemas como los derechos de autor y la propiedad de los datos.
En última instancia, la nueva definición requiere que los modelos de código abierto proporcionen información suficiente sobre los datos de entrenamiento para que «una persona con las habilidades adecuadas pueda recrear un sistema sustancialmente equivalente utilizando los mismos o similares datos». Esto no implica un requisito general para compartir todos los conjuntos de datos de entrenamiento, pero va más allá de lo que muchos modelos propietarios o incluso aparentemente de código abierto hacen hoy en día. Es un compromiso.
«Insistir en un estándar de oro ideológicamente puro que realmente no será cumplido por nadie termina siendo contraproducente», comenta Bdeir. Añade que la OSI planea implementar algún mecanismo de cumplimiento para marcar los modelos que se describen como de código abierto pero no cumplen con su definición. También se propone publicar una lista de modelos de IA que sí cumplen con la nueva definición. Aunque aún no hay nombres confirmados, entre los pocos modelos que Bdeir mencionó a MIT Technology Review se encuentran Pythia de Eleuther, OLMo de Ai2 y los modelos del colectivo de código abierto LLM360.
Diferencias clave entre IA abierta e IA de código abierto: un análisis esencial
En el debate sobre la inteligencia artificial (IA) y sus implicaciones éticas y tecnológicas, es fundamental distinguir entre dos conceptos que, aunque relacionados, no son sinónimos: «IA abierta» e «IA de código abierto».
IA de código abierto se refiere a aquellos sistemas de inteligencia artificial cuyo código fuente está disponible públicamente. Esto significa que cualquier persona puede acceder al código, modificarlo y distribuir sus versiones modificadas. La esencia de esta categoría radica en la transparencia y la libertad que ofrece: el código está al alcance de la comunidad, lo que permite un escrutinio público, la posibilidad de mejoras continuas y un uso amplio y flexible. Ejemplos notables de IA de código abierto incluyen modelos como GPT-Neo o los desarrollados por EleutherAI, donde el código fuente es accesible para todos.
Por otro lado, el concepto de IA abierta es más amplio y menos definido formalmente. Mientras que la «IA de código abierto» se enfoca en la disponibilidad del código, la «IA abierta» abarca una serie de prácticas que promueven la apertura en distintos aspectos del desarrollo y uso de la IA. Esto puede incluir no solo la publicación del código, sino también la transparencia en los datos de entrenamiento, la documentación detallada del funcionamiento del modelo y la accesibilidad para un público amplio. En otras palabras, una IA abierta se compromete a ser transparente y accesible en todas sus dimensiones, desde el acceso al código hasta la divulgación de los datos y algoritmos subyacentes.
Esta diferencia es crucial: no toda IA abierta es necesariamente de código abierto. Una IA puede ser abierta en términos de accesibilidad y transparencia, ofreciendo interfaces abiertas para su integración y mejora, sin que necesariamente su código fuente esté disponible para el público.
Entender esta distinción es esencial en un entorno donde los términos se usan a menudo de manera intercambiable, lo que puede llevar a malentendidos. Mientras la «IA de código abierto» se centra en el acceso al código fuente, la «IA abierta» aboga por una mayor transparencia y accesibilidad en todos los aspectos del desarrollo de la inteligencia artificial.