Comprendiendo la EU AI Act: impacto y aplicaciones si tu empresa tiene actividad económica en Europa
13/11/2024
La Ley de Inteligencia Artificial de la UE (AI Act) ha generado gran expectación entre las empresas que operan en Europa. Con un enfoque en la regulación de los sistemas de inteligencia artificial, la AI Act busca equilibrar la innovación tecnológica con la seguridad y la ética. En este artículo, exploramos los principales puntos de esta legislación y cómo puede afectar a las organizaciones con actividad económica en el continente.
¿Qué es la la Ley de Inteligencia Artificial de la UE (AI Act)?
La AI Act es la primera legislación integral sobre inteligencia artificial en el mundo y pretende establecer un marco jurídico claro en torno a su uso. La legislación clasifica los sistemas de IA en diferentes categorías de riesgo, con normas más estrictas para las aplicaciones consideradas de «alto riesgo». Entre ellas figuran sectores críticos como la banca, las finanzas, la sanidad, la educación y la seguridad pública. En particular, el reglamento hace hincapié en la protección de los derechos fundamentales de los ciudadanos europeos, así como en el fomento de la innovación tecnológica de forma ética y responsable.
Definición y objetivos
La Ley de Inteligencia Artificial de la UE tiene como objetivo principal garantizar que los sistemas de IA desarrollados, vendidos o utilizados dentro del territorio de la Unión Europea sean seguros y respeten los derechos fundamentales de las personas.
La AI Act pretende alcanzar tres objetivos fundamentales:
- Protección de la seguridad y de los derechos fundamentales: la legislación establece criterios estrictos para los sistemas de IA, en particular los considerados de alto riesgo, para evitar violaciones de los derechos de los ciudadanos y minimizar los riesgos para la seguridad.
- Fomento de la transparencia y la trazabilidad: los sistemas de IA deben ser transparentes en su funcionamiento, de forma que quede claro cómo toman decisiones y cómo utilizan los datos. Esto es especialmente relevante para las aplicaciones en el sector financiero, donde las decisiones pueden influir directamente en la vida de las personas, como en la concesión de préstamos o pólizas de seguros.
- Apoyar la innovación responsable: la Ley de IA no pretende frenar el desarrollo tecnológico, sino crear un entorno regulado que incentive la innovación segura, garantizando al mismo tiempo que los nuevos avances tecnológicos cumplan normas éticas.
Activación de la AI Act: cuándo fue aprobada y qué plazos tenemos
La AI Act fue propuesta en abril de 2021, y tras varios ajustes y negociaciones, fue aprobada por las instituciones europeas a finales de 2023. Este proceso de deliberación involucró tanto al Parlamento Europeo como al Consejo de la UE, reflejando el creciente interés en regular la inteligencia artificial de manera integral. El texto legislativo define un marco de aplicación gradual, lo que permite a las empresas adaptarse a los nuevos requisitos en función de su grado de exposición al riesgo.
¿Cuál es el periodo de transición?
El reglamento contempla un periodo de transición que permite a las empresas implementar los cambios necesarios antes de la aplicación efectiva de la ley. Durante este tiempo, las empresas podrán revisar y ajustar sus sistemas de IA para cumplir con las nuevas normativas, evitando sanciones que pueden ser severas, con multas de hasta 35 millones de euros o el 7% de la facturación global anual de la empresa, la cantidad que sea mayor.
El AI Act está en vigor desde el 2 de agosto de 2024 y será plenamente aplicable a partir del 2 de agosto de 2026.
Mediación por Output
Una de las innovaciones más destacadas de la AI Act es su enfoque en la mediación del output, que se refiere a cómo los resultados o productos generados por sistemas de IA son analizados y monitoreados para garantizar su seguridad y conformidad con las normativas. Esto es particularmente relevante en el caso de los modelos de lenguaje (LLM), que tienen un impacto considerable en sectores como la atención al cliente y la automatización de decisiones. Debido a su capacidad para procesar y generar grandes volúmenes de información de manera autónoma, es esencial garantizar que los outputs de estos sistemas sean éticos y responsables, evitando errores o sesgos.
Importancia del output en la AI Act
El output desempeña un papel crítico en la AI Act, ya que es fundamental para prevenir impactos negativos en los usuarios finales y consumidores. Las empresas que utilicen LLM deben demostrar que sus sistemas generan resultados confiables y alineados con los principios éticos establecidos por la ley. Esto incluye la implementación de auditorías regulares y mecanismos de control que aseguren la transparencia en los procesos, sin comprometer los derechos de los usuarios.
Además, los mecanismos de verificación y documentación permiten a las organizaciones cumplir con las normativas, asegurando que sus outputs sean trazables y seguros. Este enfoque no solo protege a los usuarios, sino que también incentiva el desarrollo de aplicaciones innovadoras, como los LLM multimodales, que pueden mejorar la eficiencia empresarial mientras se garantiza un uso responsable y ético de la inteligencia artificial.
Aprende más sobre IA leyendo ‘Qué son los LLM multimodales’.
La pirámide de la AI Act
La AI Act clasifica los sistemas de IA en una estructura piramidal de niveles de riesgo. Esta estructura ayuda a las empresas a identificar qué regulaciones se aplican en función del uso que hacen de la inteligencia artificial.

Clasificación de los niveles de riesgo de la AI Act. Fuente: Covisian
Niveles y estructura
La pirámide de riesgo de la AI Act está compuesta por los siguientes niveles:
- Riesgo inaceptable: estos sistemas están prohibidos por la ley debido a su potencial para causar un daño irreparable. Ejemplos incluyen el uso de IA para vigilancia masiva, manipulación del comportamiento, o tecnologías de calificación social. La AI Act los considera incompatibles con los valores y derechos europeos.
- Alto riesgo: esta categoría abarca tecnologías de IA que pueden impactar directamente los derechos fundamentales de las personas, como en la educación, el acceso a empleo, los servicios públicos o la seguridad de vehículos. Estos sistemas requieren una estricta evaluación de conformidad y las empresas deben seguir protocolos más rigurosos de seguridad y responsabilidad.
- Riesgo limitado: aquí se encuentran sistemas que requieren una mayor transparencia para los usuarios. Los chatbots, tecnologías de reconocimiento emocional o deep fakes entran en esta categoría. Las empresas deben informar a los usuarios que están interactuando con una IA.
- Riesgo mínimo o nulo: los sistemas de IA en esta categoría no presentan riesgos significativos para la seguridad o los derechos fundamentales. Por lo tanto, no tienen obligaciones regulatorias específicas.
Esta estructura permite a las empresas identificar claramente sus obligaciones y ajustarse a las regulaciones correspondientes según su categoría de riesgo.
Qué espera lograr la UE con esta ley de inteligencia artificial
La AI Act es un pilar estratégico para la UE en su visión de liderar el desarrollo ético y seguro de la inteligencia artificial a nivel global. Con esta ley, la UE pretende:
- Proteger a los ciudadanos de los riesgos asociados al uso indebido de IA.
- Fomentar la innovación responsable en sectores clave como la salud, el transporte y los servicios financieros.
- Establecer a Europa como un líder en el desarrollo de tecnologías confiables y respetuosas de los derechos humanos.
La Ley de Inteligencia Artificial de la UE es una normativa pionera que obligará a las empresas a revisar sus modelos de IA para garantizar su seguridad y transparencia. Adaptarse a esta legislación será clave para aquellas organizaciones que quieran operar con éxito en Europa.
Descubre cómo nuestros productos implementan la IA de forma segura para ayudarte a cumplir con las normativas de la UE y mantener tu empresa a la vanguardia tecnológica.
