Page 37 - Perez
P. 37

principio, esas personas no deben ser consideradas usuarios en el sentido del presente
                      Reglamento. Dichos sistemas pueden perpetuar patrones históricos de discriminación,
                      por ejemplo contra las mujeres, ciertos grupos de edad, personas con discapacidad o
                      personas  de  orígenes  raciales  o  étnicos  concretos  o  con  una  orientación  sexual
                      determinada, durante todo el proceso de contratación y en la evaluación, la promoción
                      o la retención de personas en relaciones contractuales de índole laboral. Los sistemas
                      de IA empleados para controlar el rendimiento y el comportamiento de estas personas
                      también pueden afectar a sus derechos a la protección de los datos personales y a la
                      privacidad.
               (37)   El  acceso  y  el  disfrute  de  determinados  servicios  y  ayudas  esenciales  de  carácter
                      público y privado necesarios para que las personas participen en la sociedad o cuenten
                      con  unas  condiciones  de  vida  mejores  es  otro  ámbito  en  el  que  conviene  prestar
                      especial atención a la utilización de sistemas de IA. En concreto, deben considerarse
                      de  alto  riesgo  los  sistemas  de  IA  usados  para  evaluar  la  calificación  crediticia  o
                      solvencia  de  personas  físicas,  ya  que  deciden  si  dichas  personas  pueden  acceder  a
                      recursos  financieros  o  servicios  esenciales  como  la  vivienda,  la  electricidad  y  los
                      servicios  de  telecomunicaciones.  Los  sistemas  de  IA  usados  con  este  fin  pueden
                      discriminar a personas o grupos y perpetuar patrones históricos de discriminación, por
                      ejemplo,  por  motivos  de  origen  racial  o  étnico,  discapacidad,  edad  u  orientación
                      sexual, o generar nuevas formas de efectos discriminatorios. Habida cuenta del alcance
                      sumamente  limitado  de  su  impacto  y  de  las  escasas  alternativas  disponibles  en  el
                      mercado, conviene dejar exentos a los sistemas de IA destinados a evaluar la solvencia
                      y la calificación crediticia cuando los pongan en servicio proveedores a pequeña escala
                      para su propio uso. Las personas físicas que solicitan o reciben ayudas y servicios de
                      autoridades públicas suelen depender de ellos y, por lo general, se encuentran en una
                      posición  de  vulnerabilidad  respecto  de  las  autoridades  responsables.  Si  se  utilizan
                      sistemas  de  IA  para  decidir  si  las  autoridades  deben  denegar,  reducir,  revocar  o
                      reclamar  dichas  ayudas  y  servicios,  estos  sistemas  pueden  afectar  de  un  modo
                      considerable  a  los  medios  de  subsistencia  de  las  personas  y  podrían  infringir  sus
                      derechos  fundamentales,  como  el  derecho  a  la  protección  social,  a  la  no
                      discriminación, a la dignidad humana o a una tutela judicial efectiva. Por lo tanto, esos
                      sistemas deben considerarse de alto riesgo. No obstante, el presente Reglamento no
                      debe obstaculizar el desarrollo y el uso de enfoques innovadores en la Administración
                      pública, que se beneficiarían de una mayor utilización de sistemas de IA conformes y
                      seguros,  siempre  y  cuando  dichos  sistemas  no  conlleven  un  alto  riesgo  para  las
                      personas jurídicas y físicas. Por último, los sistemas de IA empleados para el envío o
                      el establecimiento de prioridades en el envío de servicios de primera intervención en
                      situaciones  de  emergencia  también  deben  considerarse  de  alto  riesgo,  dado  que
                      adoptan decisiones en situaciones sumamente críticas para la vida  y la salud  de las
                      personas y de sus bienes.

               (38)   Las actuaciones de las autoridades encargadas de la aplicación de la ley que implican
                      determinados usos de sistemas de IA se caracterizan por un importante desequilibrio
                      de poder y pueden dar lugar a la vigilancia, la detención o la privación de libertad de
                      una  persona  física,  así  como  a  otros  efectos  negativos  sobre  los  derechos
                      fundamentales  que  garantiza  la  Carta.  En  particular,  si  el  sistema  de  IA  no  está
                      entrenado con datos de buena calidad, no cumple los requisitos oportunos en términos
                      de precisión o solidez, o no se diseña y prueba debidamente antes de introducirlo en el
                      mercado o ponerlo en servicio, puede señalar a personas de manera discriminatoria,
                      incorrecta  o  injusta.  Además,  podría  impedir  el  ejercicio  de  importantes  derechos
                      procesales  fundamentales,  como  el  derecho  a  la  tutela  judicial  efectiva  y  a  un  juez



       ES                                                  31                                               ES
   32   33   34   35   36   37   38   39   40   41   42