Page 21 - Perez
P. 21

probable  que  les  provoque  perjuicios  físicos  o  psicológicos  a  ellos  o  a  otras  personas.  La
               legislación  vigente  en  materia  de  protección  de  datos,  protección  de  los  consumidores  y
               servicios  digitales,  que  garantiza  que  las  personas  físicas  sean  debidamente  informadas  y
               puedan decidir libremente no ser sometidas a la elaboración de perfiles u otras prácticas que
               puedan afectar a su conducta, podría cubrir otras prácticas de manipulación o de explotación
               contra adultos que los sistemas de IA pueden facilitar. La propuesta prohíbe igualmente que
               las  autoridades  públicas  realicen  calificación  social  basada  en  IA  con  fines  generales.  Por
               último, también se prohíbe, salvo excepciones limitadas, el uso de sistemas de identificación
               biométrica remota «en tiempo real» en espacios de acceso público con fines de aplicación de
               la ley.
               5.2.3.   SISTEMAS DE ALTO RIESGO (TÍTULO III)

               El título III contiene normas específicas para aquellos sistemas de IA que acarrean un alto
               riesgo para la salud y la seguridad o los derechos fundamentales de las personas físicas. En
               consonancia con un enfoque basado en los riesgos, dichos sistemas de IA de alto riesgo están
               permitidos en el mercado europeo siempre que cumplan determinados requisitos obligatorios
               y sean sometidos a una evaluación de la conformidad ex ante. Un sistema de IA se considera
               de alto riesgo en función de su finalidad prevista, conforme a la legislación vigente relativa a
               la seguridad de los productos. Por lo tanto, la clasificación de un sistema de IA como de alto
               riesgo no depende únicamente de la función que lleve a cabo, sino también de la finalidad
               específica y de las modalidades para las que se use dicho sistema.

               En el capítulo 1 del título III se establecen las normas de clasificación y se definen las dos
               categorías principales de sistemas de IA de alto riesgo:
                          los sistemas de IA diseñados para utilizarse como componentes de seguridad de
                          productos  sujetos  a  una  evaluación  de  la  conformidad  ex  ante  realizada  por
                          terceros; y
                          otros  sistemas  de  IA  independientes  con  implicaciones  relacionadas
                          principalmente  con  los  derechos  fundamentales,  los  cuales  se  indican
                          explícitamente en el anexo III.
               La  lista  de  sistemas  de  IA  de  alto  riesgo  que  figura  en  el  anexo III  contiene  un  número
               limitado de sistemas de IA cuyos riesgos ya se han materializado o es probable que lo hagan
               próximamente. La Comisión podría ampliar la lista de sistemas de IA de alto riesgo utilizados
               en determinados ámbitos predefinidos mediante la aplicación de un conjunto de criterios y
               una  metodología  de  evaluación  del  riesgo,  a  fin  de  garantizar  que  el  Reglamento  pueda
               adaptarse a los nuevos usos y aplicaciones de la IA.
               En el capítulo 2 se establecen los requisitos legales que deben cumplir los sistemas de IA de
               alto riesgo en lo que respecta a los datos y su gobernanza, la documentación y el registro, la
               transparencia  y  la  comunicación  de  información  a  los  usuarios,  la  vigilancia  humana,  la
               solidez,  la  precisión  y  la  seguridad.  Muchos  operadores  diligentes  que  se  encuentran  a  la
               vanguardia ya aplican los requisitos mínimos propuestos, que son el resultado de dos años de
               trabajos preparatorios y se derivan de las directrices éticas para una IA fiable elaboradas por
                                                           29
               el  grupo  de  expertos  de  alto  nivel  sobre  IA ,  ya  aplicadas  a  modo  de  prueba  por  más  de
                                  30
               350 organizaciones . También son en gran medida coherentes con otras recomendaciones y
               principios internacionales, lo que garantiza la compatibilidad del marco propuesto para la IA

               29     Grupo de expertos de alto nivel sobre IA, Directrices éticas para una IA fiable, 2019.
               30     La Comisión también las respaldó en su Comunicación de 2019 relativa a una IA centrada en el ser
                      humano.




       ES                                                  15                                               ES
   16   17   18   19   20   21   22   23   24   25   26