Page 20 - Perez
P. 20
5. OTROS ELEMENTOS
5.1. Planes de ejecución y modalidades de seguimiento, evaluación e información
Resulta esencial establecer un mecanismo sólido de seguimiento y evaluación para garantizar
que la propuesta alcanzará sus objetivos específicos de manera efectiva. La Comisión se
encargará de hacer un seguimiento de los efectos de la propuesta. A tal fin, establecerá un
sistema destinado a registrar aplicaciones de IA de alto riesgo independientes en una base de
datos pública para toda la UE. Este registro también permitirá que las autoridades
competentes, los usuarios y otras personas interesadas verifiquen si un sistema de IA de alto
riesgo cumple los requisitos estipulados en la propuesta y ejerzan una vigilancia reforzada de
aquellos sistemas de IA que entrañan un alto riesgo para los derechos fundamentales. Para
alimentar esta base de datos, los proveedores de IA estarán obligados a facilitar información
significativa sobre sus sistemas y la evaluación de la conformidad a la que los sometan.
Asimismo, los proveedores de IA tendrán la obligación de informar a las autoridades
nacionales competentes de los incidentes graves o defectos de funcionamiento que
constituyan un incumplimiento de sus obligaciones respecto de los derechos fundamentales en
cuanto tengan constancia de ellos, así como de cualquier recuperación o retirada de sistemas
de IA del mercado. A continuación, las autoridades nacionales competentes investigarán los
incidentes o defectos de funcionamiento, recabarán toda la información necesaria y se la
transmitirán periódicamente a la Comisión junto con los metadatos correspondientes. La
Comisión complementará esta información sobre los incidentes con un análisis integral del
mercado general de la IA.
La Comisión publicará un informe que evalúe y revise el marco de IA propuesto cinco años
después de la fecha de entrada en vigor de dicho marco.
5.2. Explicación detallada de las disposiciones específicas de la propuesta
5.2.1. ÁMBITO DE APLICACIÓN Y DEFINICIONES (TÍTULO I)
En el título I se define el objeto del Reglamento y el ámbito de aplicación de las nuevas
normas que abarcan la introducción en el mercado, la puesta en servicio y la utilización de
sistemas de IA. Además, se establecen las definiciones utilizadas en todo el instrumento. La
definición de «sistema de IA» que figura en el marco jurídico pretende ser lo más
tecnológicamente neutra posible y resistir al paso del tiempo lo mejor posible, habida cuenta
de la rápida evolución tecnológica y del mercado en relación con la IA. Con el objetivo de
proporcionar la seguridad jurídica necesaria, el título I se complementa con el anexo I, que
contiene una lista detallada de las estrategias y técnicas para el desarrollo de la IA que la
Comisión deberá adaptar a los nuevos avances tecnológicos. También se proporciona una
definición clara de los principales participantes en la cadena de valor de la IA, como los
proveedores y los usuarios de sistemas de IA, entre los que se incluyen los operadores
públicos y privados para garantizar la igualdad de condiciones.
5.2.2. PRÁCTICAS DE INTELIGENCIA ARTIFICIAL PROHIBIDAS (TÍTULO II)
En el título II se establece una lista de IA prohibidas. El Reglamento sigue un enfoque basado
en los riesgos que distingue entre los usos de la IA que generan i) un riesgo inaceptable, ii) un
riesgo alto, y iii) un riesgo bajo o mínimo. La lista de prácticas prohibidas que figura en el
título II abarca todos los sistemas de IA cuyo uso se considera inaceptable por ser contrario a
los valores de la Unión, por ejemplo, porque violan derechos fundamentales. Las
prohibiciones engloban aquellas prácticas que tienen un gran potencial para manipular a las
personas mediante técnicas subliminales que trasciendan su consciencia o que aprovechan las
vulnerabilidades de grupos vulnerables concretos, como los menores o las personas con
discapacidad, para alterar de manera sustancial su comportamiento de un modo que es
ES 14 ES