Page 21 - Perez
P. 21
probable que les provoque perjuicios físicos o psicológicos a ellos o a otras personas. La
legislación vigente en materia de protección de datos, protección de los consumidores y
servicios digitales, que garantiza que las personas físicas sean debidamente informadas y
puedan decidir libremente no ser sometidas a la elaboración de perfiles u otras prácticas que
puedan afectar a su conducta, podría cubrir otras prácticas de manipulación o de explotación
contra adultos que los sistemas de IA pueden facilitar. La propuesta prohíbe igualmente que
las autoridades públicas realicen calificación social basada en IA con fines generales. Por
último, también se prohíbe, salvo excepciones limitadas, el uso de sistemas de identificación
biométrica remota «en tiempo real» en espacios de acceso público con fines de aplicación de
la ley.
5.2.3. SISTEMAS DE ALTO RIESGO (TÍTULO III)
El título III contiene normas específicas para aquellos sistemas de IA que acarrean un alto
riesgo para la salud y la seguridad o los derechos fundamentales de las personas físicas. En
consonancia con un enfoque basado en los riesgos, dichos sistemas de IA de alto riesgo están
permitidos en el mercado europeo siempre que cumplan determinados requisitos obligatorios
y sean sometidos a una evaluación de la conformidad ex ante. Un sistema de IA se considera
de alto riesgo en función de su finalidad prevista, conforme a la legislación vigente relativa a
la seguridad de los productos. Por lo tanto, la clasificación de un sistema de IA como de alto
riesgo no depende únicamente de la función que lleve a cabo, sino también de la finalidad
específica y de las modalidades para las que se use dicho sistema.
En el capítulo 1 del título III se establecen las normas de clasificación y se definen las dos
categorías principales de sistemas de IA de alto riesgo:
los sistemas de IA diseñados para utilizarse como componentes de seguridad de
productos sujetos a una evaluación de la conformidad ex ante realizada por
terceros; y
otros sistemas de IA independientes con implicaciones relacionadas
principalmente con los derechos fundamentales, los cuales se indican
explícitamente en el anexo III.
La lista de sistemas de IA de alto riesgo que figura en el anexo III contiene un número
limitado de sistemas de IA cuyos riesgos ya se han materializado o es probable que lo hagan
próximamente. La Comisión podría ampliar la lista de sistemas de IA de alto riesgo utilizados
en determinados ámbitos predefinidos mediante la aplicación de un conjunto de criterios y
una metodología de evaluación del riesgo, a fin de garantizar que el Reglamento pueda
adaptarse a los nuevos usos y aplicaciones de la IA.
En el capítulo 2 se establecen los requisitos legales que deben cumplir los sistemas de IA de
alto riesgo en lo que respecta a los datos y su gobernanza, la documentación y el registro, la
transparencia y la comunicación de información a los usuarios, la vigilancia humana, la
solidez, la precisión y la seguridad. Muchos operadores diligentes que se encuentran a la
vanguardia ya aplican los requisitos mínimos propuestos, que son el resultado de dos años de
trabajos preparatorios y se derivan de las directrices éticas para una IA fiable elaboradas por
29
el grupo de expertos de alto nivel sobre IA , ya aplicadas a modo de prueba por más de
30
350 organizaciones . También son en gran medida coherentes con otras recomendaciones y
principios internacionales, lo que garantiza la compatibilidad del marco propuesto para la IA
29 Grupo de expertos de alto nivel sobre IA, Directrices éticas para una IA fiable, 2019.
30 La Comisión también las respaldó en su Comunicación de 2019 relativa a una IA centrada en el ser
humano.
ES 15 ES