La AI Act, destinada a convertirse en un precedente global, tiene como objetivo abordar los riesgos asociados con la inteligencia artificial al tiempo que fomenta el desarrollo de tecnología de vanguardia. Uno de los aspectos clave de esta ley es su apoyo a la investigación y desarrollo de código abierto, sin ánimo de lucro y académico en el ecosistema de la IA. Este apoyo garantiza el desarrollo de sistemas de IA seguros, transparentes y responsables que beneficien a todos los ciudadanos de la Unión Europea.
Lecciones del éxito del desarrollo de software de código abierto
Tomando como referencia el éxito del desarrollo de software de código abierto, los responsables políticos pueden crear regulaciones que fomenten el desarrollo abierto de la IA al mismo tiempo que protegen los intereses de los usuarios. Al proporcionar exenciones y requisitos proporcionales para los sistemas de aprendizaje automático de código abierto, la Unión Europea puede fomentar la innovación y la competencia en el mercado de la IA al tiempo que mantiene un próspero ecosistema de código abierto.
Organizaciones a favor del desarrollo de código abierto en la IA
Varias organizaciones, representando a actores tanto comerciales como sin fines de lucro, incluidos GitHub, Hugging Face, EleutherAI, Creative Commons y otros, se han unido para publicar un documento de política que insta a los responsables políticos de la UE a proteger la innovación de código abierto.
Las propuestas de estas organizaciones son las siguientes:
- Definir claramente los componentes de la IA: Definir claramente los componentes de la IA ayudará a los interesados a comprender sus roles y responsabilidades, facilitando la colaboración y la innovación en el ecosistema abierto.
- Aclarar que el desarrollo colaborativo de componentes de IA de código abierto está exento de los requisitos de la AI Act: Para fomentar el desarrollo de código abierto, la ley debe aclarar que los contribuyentes a repositorios públicos no están sujetos a los mismos requisitos regulatorios que las entidades comerciales.
- Apoyar la coordinación de la Oficina de IA con el ecosistema de código abierto: La ley debe fomentar la gobernanza inclusiva y la colaboración entre la Oficina de IA y los desarrolladores de código abierto para fomentar la transparencia y el intercambio de conocimientos.
- Garantizar una excepción práctica y efectiva para la investigación y el desarrollo: Permitir pruebas limitadas en condiciones del mundo real, combinando aspectos del enfoque del Consejo y del Artículo 2(5d) del Parlamento, para facilitar la investigación y el desarrollo sin comprometer la seguridad y la responsabilidad.
- Establecer requisitos proporcionales para los «modelos base»: Diferenciar entre varios usos y modalidades de desarrollo de modelos base, incluidos enfoques de código abierto, para garantizar un trato justo y promover la competencia.
Ventajas del desarrollo de código abierto en la IA
El desarrollo de IA de código abierto ofrece varias ventajas, incluida la transparencia, la inclusividad y la modularidad. Permite que los interesados colaboren y construyan sobre el trabajo de otros, lo que conduce a modelos de IA más robustos y diversos. Por ejemplo, la comunidad EleutherAI se ha convertido en un destacado laboratorio de ML de código abierto, publicando modelos preentrenados y bibliotecas de código que han facilitado la investigación fundamental y reducido las barreras para desarrollar grandes modelos de IA.
Del mismo modo, el proyecto BigScience, que reunió a más de 1200 investigadores multidisciplinarios, destaca la importancia de facilitar el acceso directo a los componentes de IA en diversas instituciones y disciplinas.
Estas colaboraciones abiertas han democratizado el acceso a grandes modelos de IA, permitiendo a los investigadores ajustarlos y adaptarlos a diferentes idiomas y tareas específicas, lo que en última instancia contribuye a un paisaje de IA más diverso y representativo.
El desarrollo y la investigación abierta también promueven la transparencia y la responsabilidad en los sistemas de IA. Por ejemplo, LAION, una organización de investigación sin fines de lucro, lanzó modelos de código abierto de CLIP que han sido fundamentales para identificar y abordar sesgos en las aplicaciones de IA. El acceso abierto a los datos de entrenamiento y los componentes del modelo ha permitido a los investigadores y al público examinar el funcionamiento interno de los sistemas de IA y cuestionar afirmaciones engañosas o erróneas.
El equilibrio necesario para el éxito de la AI Act
El éxito de la AI Act depende de encontrar un equilibrio entre la regulación y el apoyo al ecosistema abierto de Inteligencia Artificial. Si bien la apertura y la transparencia son fundamentales, la regulación también debe mitigar los riesgos, garantizar estándares y establecer una responsabilidad clara por los posibles daños causados por los sistemas de IA.
A medida que la Unión Europea sienta las bases para regular la IA, abrazar el código abierto y la ciencia abierta será fundamental para asegurar que la tecnología de IA beneficie a todos los ciudadanos.
Implementando las recomendaciones proporcionadas por las organizaciones que representan a los interesados en el ecosistema abierto de la IA, la AI Act puede fomentar un entorno de colaboración, transparencia e innovación, convirtiendo a Europa en líder en el desarrollo y despliegue responsable de tecnologías de IA.