La ambición europea de crear un marco para la IA

El 21 de mayo de 2024, la Unión Europea adoptó oficialmente la AI Act, una ley destinada a regular la inteligencia artificial en su territorio.

Presentado inicialmente el 21 de abril de 2021 y aprobado por unanimidad por los eurodiputados el pasado mes de marzo, el texto se ha revisado sustancialmente para tener en cuenta el rápido auge de la IA generativa, como ChatGPT, lanzado a finales de 2022.

La legislación armoniza la normativa existente sobre IA y marca el compromiso de la UE con un marco jurídico sólido para el desarrollo de sistemas de IA fiables, éticos y seguros.

Se trata de la primera ley del mundo dedicada específicamente a la inteligencia artificial, cuyo objetivo es garantizar el estricto respeto de los derechos fundamentales de los ciudadanos europeos al tiempo que se fomenta la innovación. La Unión Europea aspira así a convertirse en líder de la IA ética y regulada.

Las empresas y organizaciones implicadas

La nueva legislación se aplica a todas las personas jurídicas -ya sean empresas, asociaciones o autoridades públicas- que suministren, distribuyan o desplieguen sistemas o modelos de inteligencia artificial.

Esto incluye a las organizaciones situadas fuera de la UE si sus servicios se utilizan o distribuyen en la Unión.

Los agentes que tengan previsto introducir o encargar sistemas de IA de alto riesgo en la UE están especialmente afectados.

Del mismo modo, los proveedores de terceros países cuyos sistemas de IA de alto riesgo se utilicen en Europa deben cumplir esta ley.

Un sistema de IA se define como un sistema «diseñado para funcionar con diferentes niveles de autonomía, capaz de adaptarse tras su despliegue y que, con fines explícitos o implícitos, deduce de los datos recibidos cómo generar resultados tales como predicciones, contenidos, recomendaciones o decisiones susceptibles de influir en entornos físicos o virtuales».

Obligaciones para empresas y start-ups

Las empresas que utilicen inteligencia artificial tendrán que cumplir nuevas obligaciones, que varían en función del nivel de riesgo asociado a sus sistemas de IA. En el caso de los sistemas de alto riesgo, los proveedores deberán:

  • Obtener la certificación CE.
  • Registrar la empresa en una base de datos europea.
  • Implantar un sistema de gestión de riesgos.
  • Garantizar la gobernanza de los datos para evitar sesgos en los conjuntos de datos.
  • Proporcionar documentación técnica detallada.
  • Establecer un sistema de gestión de la calidad para garantizar el cumplimiento durante todo el ciclo de vida del producto.
  • Elaborar una declaración de conformidad.
  • Garantizar la trazabilidad y transparencia del sistema de IA.
  • Garantizar el control humano del sistema.
  • Garantizar la solidez, precisión y ciberseguridad del modelo.

Categorías de sistemas de IA según el nivel de riesgo

La Ley de IA introduce una clasificación de los sistemas de IA basada en el nivel de riesgo que presentan:

Riesgos inaceptables :

Sistemas considerados una amenaza para las personas, como la manipulación de personas vulnerables (por ejemplo, juguetes interactivos que incitan a los niños a comportamientos peligrosos), el scoring social o la identificación biométrica a distancia en tiempo real. Estos sistemas están prohibidos en la UE.

Alto riesgo :

Sistemas que presentan riesgos para la salud, la seguridad o los derechos fundamentales.

Se incluyen los sistemas utilizados en infraestructuras críticas (transporte, energía), servicios públicos y privados (sanidad, finanzas), educación, empleo o justicia.

Se prevén excepciones para situaciones específicas como la búsqueda de personas desaparecidas.

Riesgos limitados:

Sistemas como chatbots, recomendaciones personalizadas o deepfakes.

Deben ser transparentes e informar a los usuarios de que están interactuando con una IA.

Riesgos mínimos:

Sistemas como filtros de spam o IA en videojuegos. No hay obligaciones específicas, pero se anima a los proveedores a adoptar códigos de conducta.

Prepararse para la Ley de IA: pasos para las empresas

Para anticiparse a la entrada en vigor de la Ley de IA, las empresas pueden dar varios pasos:

Reforzar la gobernanza de la IA:

Nombrar a un responsable de IA, que podría ser el delegado de protección de datos, encargado del cumplimiento de la nueva legislación. Crear grupos de trabajo internos y externos, establecer una vigilancia normativa y participar en consultas públicas.

Mapear los sistemas de IA:

Evaluar los sistemas existentes para determinar su nivel de riesgo y cumplimiento, y realizar pruebas y auditorías periódicas.

Formar y educar a los equipos:

Informar a los empleados sobre las implicaciones de la Ley de IA, los riesgos asociados al uso de la IA (prejuicios, discriminación) y los vínculos con otras normativas como el RGPD.

Preguntar a los proveedores:

Antes de exigir el marcado CE, pida a los proveedores información sobre la composición de sus productos, los datos utilizados para entrenar los algoritmos y las medidas de protección de datos personales.

Convierta la normativa en una ventaja competitiva:

Al incorporar ahora las directrices de la Ley de IA, las empresas pueden posicionarse como actores de confianza en el mercado mundial de la IA ética y responsable.

El impacto en la innovación y la competitividad de las start-ups.

La Ley de IA también pretende estimular la innovación entre las PYME y las nuevas empresas.

Al proporcionar un marco normativo claro, fomenta el desarrollo de nuevos sistemas de IA.

Los «cajones de arena regulatorios» permitirán a las empresas probar y entrenar sus modelos antes de comercializarlos, sin tener que cumplir inmediatamente todas las restricciones normativas.

Estos entornos controlados estarán supervisados por las autoridades competentes designadas por los Estados miembros.

Inversión europea y francesa en IA

Paralelamente a la aplicación de la Ley de IA, la Unión Europea está intensificando su inversión en inteligencia artificial para impulsar su competitividad global. La Comisión Europea está

propone destinar 1.000 millones de euros anuales a proyectos de IA con cargo a programas específicos. El objetivo es alcanzar los 20.000 millones de euros anuales de inversión pública y privada.

En Francia, el Gobierno tiene ambiciones similares. El 21 de mayo, el Presidente anunció una inversión adicional de 400 millones de euros para formar especialistas en IA, con un objetivo de 100.000 personas formadas al año, así como la creación de un nuevo fondo de inversión para finales de 2024.

La IA es una prioridad estratégica, con 2.500 millones de euros dedicados en el marco de un programa nacional. Importantes campañas de captación de fondos, respaldadas por inversores y organismos públicos de renombre, dan fe de este entusiasmo.

Conclusión

La adopción de la Ley de la IA marca un paso decisivo en la regulación de la inteligencia artificial en todo el mundo. Al establecer un marco jurídico preciso, la Unión Europea pretende garantizar el desarrollo de una IA ética que respete los derechos fundamentales, estimulando al mismo tiempo la innovación y la competitividad de las empresas europeas. A las organizaciones les interesa prepararse desde ahora para esta nueva normativa, de modo que puedan aprovecharla y reforzar su posición en el mercado.

Donnez-moi les dernières nouvelles !

Abonnez-vous pour en savoir plus sur les actualités du secteur

En cliquant sur « S’abonner » vous acceptez la Politique de confidentialité Smart Global Governance et acceptez que utilise vos informations de contact pour vous envoyer la newsletter