El Reglamento Europeo de Inteligencia Artificial (Reglamento de IA de la UE) es una propuesta legislativa diseñada para regular el desarrollo y uso de sistemas de inteligencia artificial (IA) en los Estados miembros de la Unión Europea. Su objetivo es fomentar la innovación tecnológica al mismo tiempo que protege los derechos fundamentales, la seguridad y la privacidad de las personas. A continuación, se resumen los puntos principales de esta normativa que será efectiva, en parte, el 2 de febrero de 2025.
Clasificación basada en el riesgo
El reglamento clasifica los sistemas de IA según su nivel de riesgo para la sociedad y los derechos fundamentales:
- Riesgo inaceptable: Sistemas de IA que se consideran una amenaza para los derechos fundamentales están completamente prohibidos. Ejemplos:
- Sistemas de vigilancia masiva en tiempo real en espacios públicos.
- Manipulación psicológica o comportamental de personas vulnerables.
- Sistemas de puntuación social al estilo del modelo chino.
- Riesgo alto: Aplicaciones que tienen un impacto significativo en la seguridad o los derechos fundamentales, como:
- Uso de IA en infraestructuras críticas (transporte, energía).
- Reclutamiento laboral y decisiones de empleo.
- Educación y evaluaciones (sistemas de evaluación automática de exámenes).
- Servicios esenciales, como préstamos bancarios o atención médica. Estos sistemas estarán sujetos a estrictos requisitos de conformidad, transparencia y supervisión.
- Riesgo limitado: Aplicaciones con bajo potencial de daño, que deben cumplir con requisitos mínimos de transparencia. Por ejemplo:
- Sistemas de IA que interactúan con los usuarios y deben informar claramente que son IA.
- Riesgo mínimo: Aplicaciones que no representan un riesgo significativo (como filtros de spam o videojuegos), no estarán sujetas a regulación adicional.
Prohibiciones específicas
El reglamento prohíbe explícitamente ciertas prácticas consideradas inaceptables:
- Reconocimiento biométrico en tiempo real en espacios públicos por parte de las fuerzas del orden, salvo en circunstancias excepcionales y bajo control judicial.
- Sistemas de IA que exploten vulnerabilidades de grupos específicos.
- Técnicas subliminales para manipular el comportamiento humano.
Requisitos para sistemas de alto riesgo
Los sistemas clasificados como de «alto riesgo» deben cumplir con criterios estrictos:
- Evaluaciones de riesgos: Antes de su implementación, los desarrolladores deben realizar análisis detallados de riesgos.
- Documentación y trazabilidad: Los sistemas deben ser auditables y sus decisiones explicables.
- Supervisión humana: Debe haber controles humanos para evitar decisiones automatizadas perjudiciales.
- Gestión de datos: Garantizar que los datos utilizados sean de alta calidad, no discriminatorios y seguros.
Transparencia y derecho a la información
Los desarrolladores de IA deben garantizar que los usuarios entiendan que están interactuando con un sistema automatizado. Además:
- Los sistemas que generan contenido sintético (por ejemplo, deepfakes) deben incluir una advertencia explícita.
- Los ciudadanos tienen derecho a saber cómo y por qué se toman decisiones automatizadas que los afectan.
Alfabetización en materia de IA
Los proveedores y responsables del despliegue de sistemas de IA adoptarán medidas para garantizar que su personal y demás personas que se encarguen en su nombre del funcionamiento y la utilización de sistemas de IA tengan un nivel suficiente de alfabetización en materia de IA, teniendo en cuenta sus conocimientos técnicos, su experiencia, su educación y su formación, así como el contexto previsto de uso de los sistemas de IA y las personas o los colectivos de personas en que se van a utilizar dichos sistemas.
Innovación y exenciones
El reglamento busca equilibrar regulación e innovación mediante:
- Espacios regulatorios de pruebas («sandboxes regulatorios»): Áreas seguras donde las empresas pueden probar tecnologías de IA bajo supervisión, sin temor a incumplir las normativas.
- Apoyo a pequeñas y medianas empresas (PYMEs): Facilidades para que las startups y empresas pequeñas accedan al marco regulatorio sin cargas administrativas excesivas.
Sanciones
El incumplimiento del reglamento puede resultar en sanciones severas:
- Multas de hasta 30 millones de euros o el 6% de la facturación global anual de la empresa, lo que sea mayor
Cooperación internacional y supervisión
- La normativa incluye la creación de un Consejo Europeo de Inteligencia Artificial, que coordinará la supervisión y aplicación del reglamento en toda la UE.
- Se promoverá la cooperación con países no pertenecientes a la UE para garantizar un marco ético global.
El reglamento busca establecer a la UE como líder global en IA responsable, protegiendo los derechos fundamentales y fomentando la confianza pública en estas tecnologías.
En Grupo Futuro, contamos con una amplia selección de cursos especializados en inteligencia artificial diseñados para capacitar a tus equipos. Explora nuestro catálogo y elige la opción que mejor se adapte a tus objetivos y necesidades.