Que no cunda el pánico. Se ha atribuido al Reglamento de Inteligencia Artificial un defecto congénito de imprecisión, pero la Oficina de IA de la Comisión Europea ya está trabajando en ello y el 15 de noviembre se publicó el primer borrador del Código de Buenas Prácticas para modelos de IA de uso general.
Se trata de un documento árido y ambiguo, por el momento, pero especialmente interesante para los proveedores de IA. Es decir, para aquellas personas o entidades que desarrollan sistemas o modelos de uso general de IA, o que los hacen desarrollar por encargo, y posteriormente los introducen en el mercado o los ponen en funcionamiento bajo su propio nombre o marca.
El documento es interesante por varios motivos. En primer lugar, indicará a los proveedores cómo deben cumplir con las obligaciones apuntadas por el Reglamento de Inteligencia Artificial (RIA) y les dará la oportunidad de demostrar su cumplimiento adhiriéndose a las prescripciones de estos Códigos. En segundo lugar, el borrador y las versiones que seguirán brindan a los partes interesadas la oportunidad de ser oídas en el proceso de su elaboración. Y, en tercer lugar, arrojará algo de luz sobre cómo deberán cumplirse otras normas relacionadas con esta tecnología, como es, por ejemplo, la propiedad intelectual y el copyright.
Este borrador de Código se refiere a los modelos de uso general; es decir, aquellos que presentan un grado considerable de generalidad, que son capaces de realizar de manera competente una gran variedad de tareas distintas, y que pueden integrarse en diversos sistemas o aplicaciones posteriores. Los modelos de IA de uso general entrañan, por su naturaleza, un potencial riesgo que el RIA llama “riesgo sistémico”.
El riesgo sistémico refiere que la amplitud de capacidades de los modelos de uso general podría alcanzar, en teoría, sectores críticos con un impacto imprevisible. El RIA pretende adelantarse al riesgo sistémico trazando unas medidas para controlar la disrupción. En este contexto, el Código de Buenas Prácticas indicará a los proveedores cómo abordar el riesgo sistémico en modelos de IA de uso general.
El borrador se estructura en tres bloques. El primero, sobre reglas para los proveedores de modelos de IA de uso general, contiene indicaciones sobre transparencia y copyright. El segundo, habla sobre la taxonomía de los riesgos sistémicos; mientras que el tercero recoge las reglas para los proveedores de modelos de IA de uso general con riesgo sistémico. Este último bloque, a su vez, aventura los principios de evaluación y mitigación del riesgo sistémico, tanto desde la perspectiva técnica como desde la perspectiva corporativa.
Aunque este es el primer paso, aún queda mucho por hacer: el documento estará abierto a escrutinio y aportaciones hasta el 28 de noviembre, evolucionando hasta alcanzar su versión definitiva en mayo de 2025.
Por eso, la Comisión Europea ha celebrado una sesión plenaria sobre el borrador del Código de Buenas Prácticas, en la que han participado cerca de mil partes interesadas, junto con representantes de los Estados miembros de la UE y observadores europeos e internacionales. Todos ellos han tenido la oportunidad de participar y formular preguntas a los presidentes de los grupos de trabajo, cuyas conclusiones se presentarán al Pleno por parte de los presidentes. Paralelamente, los participantes podrán para enviar sus comentarios por escrito antes del jueves 28 de noviembre a las 12:00 CET y, basándose en dichas aportaciones, los presidentes podrán ajustar las medidas del primer borrador y corregirlo donde sea necesario.
Sin perjuicio de los cambios que se realicen, la publicidad y el enfoque participativo en la elaboración del borrador hacen de todo el proceso una oportunidad provechosa para que juristas y proveedores de IA puedan formarse una idea anticipada de cómo deberán proceder.
Inés Cano, asociada act legal-Spain