La inteligencia artificial (IA) ha pasado de ser una herramienta tecnológica emergente a un elemento central de la economía y la sociedad europea. Reconociendo tanto su potencial como los riesgos asociados, la Unión Europea ha implementado el Artificial Intelligence Act (AI Act), la primera regulación integral a nivel global que establece un marco legal uniforme para el desarrollo, uso y comercialización de sistemas de IA en todo el territorio comunitario.
El AI Act, aprobado en 2024 y publicado en el Diario Oficial de la UE, entró en vigor el 1 de agosto de ese mismo año. Su enfoque se basa en una clasificación de riesgos, desde sistemas de riesgo mínimo hasta prácticas prohibidas, con obligaciones proporcionales según la criticidad de la IA. Esta regulación no solo establece prohibiciones para usos potencialmente peligrosos, sino que también define requisitos estrictos de transparencia, supervisión humana y documentación para los sistemas de alto riesgo.
Actualmente, los sistemas de riesgo mínimo —como juegos o filtros básicos— quedan sujetos a requisitos ligeros o ninguno, mientras que los sistemas de riesgo limitado, como algunos chatbots o motores de recomendación, deben cumplir con normas de transparencia que informen a los usuarios cuando interactúan con inteligencia artificial. Por su parte, los sistemas de alto riesgo, empleados en áreas sensibles como contratación, salud, crédito o infraestructuras críticas, requieren controles exhaustivos, auditorías y certificaciones que aseguren su seguridad y equidad. Además, ciertas prácticas como la puntuación social no consentida o la manipulación subliminal de decisiones están expresamente prohibidas en toda la UE.
La aplicación de estas normas se realiza de manera escalonada. Desde febrero de 2025, por ejemplo, ya se prohibieron prácticas de riesgo inaceptable. En agosto de 2025, comienzan a aplicarse obligaciones para modelos de IA de propósito general, incluyendo los grandes modelos de lenguaje. Posteriormente, entre 2026 y 2027, entrarán en vigor requisitos más estrictos de transparencia, supervisión y seguridad para la mayoría de los sistemas de IA, especialmente los de alto riesgo, incluyendo aquellos integrados en productos regulados como dispositivos médicos o maquinaria.
Aunque gran parte de la regulación ya es formalmente aplicable, quedan aspectos pendientes. Entre ellos se encuentran la definición de estándares técnicos armonizados, métricas de cumplimiento y guías detalladas para PYMEs o desarrolladores open source. Además, la Comisión Europea sigue debatiendo ajustes que equilibren la protección de derechos y la innovación tecnológica, considerando tanto las necesidades del mercado como la competitividad frente a actores globales.
La implementación del AI Act tiene un impacto significativo en empresas y desarrolladores. Las compañías deben adaptar sus procesos internos, establecer sistemas de gestión de riesgos de IA, documentar procedimientos, certificar productos y garantizar transparencia hacia los usuarios. Para desarrolladores y proveedores de modelos de IA, especialmente los de propósito general, implica cumplir con obligaciones de seguridad, supervisión humana y trazabilidad de datos. El marco europeo también está influenciando estándares globales, dado que muchas empresas fuera de la UE deben cumplirlo si desean operar en el mercado europeo.
En conclusión, la Unión Europea ha establecido un marco pionero para regular la inteligencia artificial, combinando la protección de derechos fundamentales con la promoción de la innovación tecnológica. Si bien ya existen normas aplicables, especialmente sobre prácticas prohibidas y sistemas de alto riesgo, quedan pendientes detalles técnicos, estándares y guías de implementación. Las empresas y desarrolladores que se anticipen y adapten a estas regulaciones estarán mejor posicionados para operar de manera legal, segura y competitiva en un ecosistema digital cada vez más exigente.