Page 20 - Perez
P. 20

5.       OTROS ELEMENTOS

               5.1.     Planes de ejecución y modalidades de seguimiento, evaluación e información
               Resulta esencial establecer un mecanismo sólido de seguimiento y evaluación para garantizar
               que  la  propuesta  alcanzará  sus  objetivos  específicos  de  manera  efectiva.  La  Comisión  se
               encargará de hacer un seguimiento de los efectos de la propuesta. A tal fin, establecerá un
               sistema destinado a registrar aplicaciones de IA de alto riesgo independientes en una base de
               datos  pública  para  toda  la  UE.  Este  registro  también  permitirá  que  las  autoridades
               competentes, los usuarios y otras personas interesadas verifiquen si un sistema de IA de alto
               riesgo cumple los requisitos estipulados en la propuesta y ejerzan una vigilancia reforzada de
               aquellos sistemas de IA que entrañan un alto riesgo para los derechos fundamentales. Para
               alimentar esta base de datos, los proveedores de IA estarán obligados a facilitar información
               significativa sobre sus sistemas y la evaluación de la conformidad a la que los sometan.
               Asimismo,  los  proveedores  de  IA  tendrán  la  obligación  de  informar  a  las  autoridades
               nacionales  competentes  de  los  incidentes  graves  o  defectos  de  funcionamiento  que
               constituyan un incumplimiento de sus obligaciones respecto de los derechos fundamentales en
               cuanto tengan constancia de ellos, así como de cualquier recuperación o retirada de sistemas
               de IA del mercado. A continuación, las autoridades nacionales competentes investigarán los
               incidentes  o  defectos  de  funcionamiento,  recabarán  toda  la  información  necesaria  y  se  la
               transmitirán  periódicamente  a  la  Comisión  junto  con  los  metadatos  correspondientes.  La
               Comisión complementará esta información sobre los incidentes con un análisis integral del
               mercado general de la IA.
               La Comisión publicará un informe que evalúe y revise el marco de IA propuesto cinco años
               después de la fecha de entrada en vigor de dicho marco.
               5.2.     Explicación detallada de las disposiciones específicas de la propuesta

               5.2.1.   ÁMBITO DE APLICACIÓN Y DEFINICIONES (TÍTULO I)

               En  el  título I  se  define  el  objeto  del  Reglamento  y  el  ámbito  de  aplicación  de  las  nuevas
               normas que abarcan la introducción en el mercado, la puesta en servicio y la utilización de
               sistemas de IA. Además, se establecen las definiciones utilizadas en todo el instrumento. La
               definición  de  «sistema  de  IA»  que  figura  en  el  marco  jurídico  pretende  ser  lo  más
               tecnológicamente neutra posible y resistir al paso del tiempo lo mejor posible, habida cuenta
               de la rápida evolución tecnológica y del mercado en relación con la IA. Con el objetivo de
               proporcionar la seguridad jurídica necesaria, el título I se complementa con el anexo I, que
               contiene una lista detallada de las estrategias  y  técnicas  para el  desarrollo  de la  IA que la
               Comisión  deberá  adaptar  a  los  nuevos  avances  tecnológicos.  También  se  proporciona  una
               definición  clara  de  los  principales  participantes  en  la  cadena  de  valor  de  la  IA,  como  los
               proveedores  y  los  usuarios  de  sistemas  de  IA,  entre  los  que  se  incluyen  los  operadores
               públicos y privados para garantizar la igualdad de condiciones.

               5.2.2.   PRÁCTICAS DE INTELIGENCIA ARTIFICIAL PROHIBIDAS (TÍTULO II)
               En el título II se establece una lista de IA prohibidas. El Reglamento sigue un enfoque basado
               en los riesgos que distingue entre los usos de la IA que generan i) un riesgo inaceptable, ii) un
               riesgo alto, y iii) un riesgo bajo o mínimo. La lista de prácticas prohibidas que figura en el
               título II abarca todos los sistemas de IA cuyo uso se considera inaceptable por ser contrario a
               los  valores  de  la  Unión,  por  ejemplo,  porque  violan  derechos  fundamentales.  Las
               prohibiciones engloban aquellas prácticas que tienen un gran potencial para manipular a las
               personas mediante técnicas subliminales que trasciendan su consciencia o que aprovechan las
               vulnerabilidades  de  grupos  vulnerables  concretos,  como  los  menores  o  las  personas  con
               discapacidad,  para  alterar  de  manera  sustancial  su  comportamiento  de  un  modo  que  es



       ES                                                  14                                               ES
   15   16   17   18   19   20   21   22   23   24   25