¿Conoces la nueva ley de Inteligencia Artificial?
En este post damos a conocer el AI Act (ley de Inteligencia Artificial de la UE), la primera ley sobre inteligencia artificial, que ha sido aprobada por el Parlamento Europeo y que se posiciona como un referente para la futura regulación global.
El panorama actual de la regulación de la inteligencia artificial (IA) a nivel mundial se caracteriza por un enfoque cada vez más diversificado, con significativos desarrollos en Estados Unidos, China y la Unión Europea.
En Estados Unidos el enfoque hace hincapié en las buenas prácticas, apoyándose en las principales agencias para elaborar normas adhoc en cada uno de los sectores de la industria. Aunque no existe una legislación nacional unificada como en la UE, varias directivas y órdenes ejecutivas han comenzado a esbozar un marco más estructurado para la supervisión de la IA, particularmente en aspectos relacionados con la protección de los derechos civiles y la minimización de riesgos emergentes.
China, por otro lado, ha adoptado un enfoque fragmentado y reactivo, regulando aspectos específicos de la IA a medida que aparecen. Sin embargo, recientemente ha anunciado planes para una ley de IA más integral, desarrollando un marco regulatorio general basado principalmente en el AI Act.
En cambio, la Unión Europea ha implementado el AI Act, la primera legislación exhaustiva sobre IA, al estructurar la gobernanza para esta tecnología dentro de la comunidad europea, clasificar los sistemas de IA en diferentes niveles de riesgo y establecer obligaciones detalladas para cada uno de ellos. Además, incorpora dentro de la regulación un marco sancionador estricto para aquellas organizaciones que no cumplan con sus obligaciones, imponiendo multas que puedan alcanzar los 35 M€ o el 7% de su facturación. Este enfoque de la UE pretende establecerse como un estándar global, influenciando sobre las regulaciones de otras regiones debido a su rigurosidad y alcance.
A nivel global, otros países y regiones están desarrollando sus propias regulaciones. Bajo este panorama regulatorio cada vez más fragmentado, la cooperación internacional y la coordinación serán cruciales para manejar los desafíos transfronterizos que presenta la IA.
Modelo para futuras regulaciones
El AI Act se posiciona como un referente para la futura regulación global de la IA, sentando las bases para un enfoque más centralizado y armonizado. Esta legislación es pionera al clasificar los sistemas según su nivel de riesgo y establecer obligaciones específicas para cada categoría. A medida que otras naciones busquen establecer sus propios marcos regulatorios, la estructura y la profundidad del AI Act podrían servir como modelo para desarrollar regulaciones que respondan de manera efectiva a los desafíos que presenta la IA, garantizando así un equilibrio entre innovación y ética.
Regulación basada en riesgos
La regulación europea de IA incorpora un marco de gestión que establece obligaciones en base a la clasificación del riesgo de los sistemas, así como prohibiciones específicas. En este sentido, se distinguen cuatro categorías de riesgo, estableciendo diferentes niveles de control para cada una.
- Riesgo inaceptable: casos de uso considerados prohibidos debido a los riesgos que presentan para los derechos fundamentales y la seguridad de las personas. Ejemplos: sistemas de puntuación social, reconocimiento facial, IA con patrones de engaño, manipulación, etc.
- Alto riesgo: casos de uso críticos desde el punto de vista de la seguridad o que afectan significativamente a los derechos fundamentales. Estos sistemas deben estar sometidos a evaluaciones de conformidad antes de su lanzamiento al mercado. Ejemplos: sistemas en sectores críticos como la salud, la seguridad pública, el transporte y el empleo.
- Riesgo limitado: casos de uso sobre los que se requiere transparencia. Se debe informar a las personas usuarias cuando están interactuando con estos sistemas. Ejemplos: chatbots, deep fakes o sistemas de reconocimiento de emociones.
- Riesgo mínimo: casos de uso que están sujetos a controles más básicos, aunque deben operar bajo ciertos estándares éticos. Ejemplos: filtros de spam, videojuegos, etc.
Requisitos para sistemas de riesgo alto
Las organizaciones que utilicen sistemas de IA clasificados como de riesgo alto tienen una serie de obligaciones diseñadas para garantizar su uso responsable:
- Gestión de riesgos y calidad: establecer un marco de gestión del riesgo y la calidad de los sistemas de IA.
- Gobernanza del dato: implementar prácticas efectivas de gobernanza de datos para asegurar la precisión y protección de la información manipulada por los sistemas de IA.
- Documentación técnica: mantener documentación técnica detallada y registros que describan el desarrollo y funcionamiento del sistema de IA.
- Transparencia: proporcionar información clara a las personas usuarias sobre cómo funcionan los sistemas y en qué condiciones.
- Supervisión humana: habilitar y asegurar la supervisión humana con el principal fin de prevenir o mitigar riesgos.
- Cumplimiento de normas: garantizar que los sistemas cumplen con los estándares establecidos de precisión, robustez y ciberseguridad.
- Registro en la base de datos de la UE: registrar los sistemas de alto riesgo en una base de datos de la UE antes de su comercialización o utilización, especialmente los usados tanto en áreas como en infraestructuras críticas.
Además de estas obligaciones, según el rol de la organización que utiliza la tecnología, bien sea implementador, importador o distribuidor, se establecen obligaciones adicionales.
Importancia de los mecanismos de control continuo
En el entorno regulatorio dinámico, el enfoque proactivo y continuo hacia la gestión de riesgos que establece la AI Act es crucial. Por ello, se implantan rigurosos controles que deben ser evaluados de manera periódica, por medio de mecanismos de supervisión, para garantizar el cumplimiento de las reglas, incluyendo la creación de autoridades de supervisión.
Este marco no solo obliga a la identificación y análisis continuo de riesgos potenciales que los sistemas de IA de alto riesgo pueden presentar, sino que también exige la evaluación y mitigación de estos riesgos a lo largo de todo el ciclo de vida del sistema. Este enfoque integral asegura que los desarrollos en IA no solo sean avanzados, sino también seguros y confiables, facilitando así un ambiente de confianza y apertura hacia la tecnología de IA en diversos sectores.
Entrada en vigor y plazos de implementación