Page 44 - Perez
P. 44
la máquina en su conjunto. El [Reglamento relativo a las máquinas] aplica la misma
definición de «sistema de IA» que el presente Reglamento.
(64) Puesto que los profesionales que realizan la certificación previa a la comercialización
tienen una experiencia más amplia en el campo de la seguridad de los productos, y
habida cuenta de la diferente naturaleza de los riesgos implicados, procede limitar, al
menos en la fase inicial de aplicación del presente Reglamento, el alcance de las
evaluaciones de la conformidad realizadas por terceros a los sistemas de IA de alto
riesgo que no están asociados a productos. En consecuencia, el proveedor es quien, por
norma general, debe llevar a cabo la evaluación de la conformidad de dichos sistemas
bajo su propia responsabilidad, con la única excepción de los sistemas de IA que están
destinados a utilizarse para la identificación biométrica remota de personas. En el caso
de estos últimos, y en la medida en que no estén prohibidos, debe preverse que un
organismo notificado participe en la evaluación de la conformidad.
(65) En virtud del presente Reglamento, las autoridades nacionales competentes deben
designar a los organismos notificados que realizarán la evaluación externa de la
conformidad de los sistemas de IA destinados a utilizarse para la identificación
biométrica remota de personas, siempre y cuando cumplan una serie de requisitos,
fundamentalmente en lo que respecta a su independencia, sus competencias y la
ausencia de conflictos de intereses.
(66) En consonancia con la noción comúnmente establecida de «modificación sustancial»
de los productos regulados por la legislación de armonización de la Unión, conviene
que un sistema de IA se someta a una nueva evaluación de la conformidad cada vez
que se produzca un cambio que pueda afectar al cumplimiento por su parte del
presente Reglamento o cuando la finalidad prevista del sistema cambie. Por otro lado,
en el caso de los sistemas de IA que siguen «aprendiendo» después de su introducción
en el mercado o puesta en servicio (es decir, aquellos que adaptan automáticamente el
modo en que desempeñan sus funciones), es necesario establecer normas que indiquen
que no deben considerarse modificaciones sustanciales los cambios en el algoritmo y
en su funcionamiento que hayan sido predeterminados por el proveedor y se hayan
evaluado en el momento de la evaluación de la conformidad.
(67) Los sistemas de IA de alto riesgo deben llevar el marcado CE para acreditar su
conformidad con el presente Reglamento y así poder circular libremente por el
mercado interno. Los Estados miembros no deben crear obstáculos injustificados a la
introducción en el mercado o la puesta en servicio de sistemas de IA de alto riesgo que
cumplan los requisitos establecidos en el presente Reglamento y lleven el marcado
CE.
(68) En determinadas condiciones, la rápida disponibilidad de tecnologías innovadoras
puede ser crucial para la salud y la seguridad de las personas y para la sociedad en su
conjunto. Por consiguiente, resulta oportuno que los Estados miembros puedan
autorizar, por motivos excepcionales de seguridad pública o con vistas a proteger la
vida y la salud de personas físicas y la propiedad industrial y mercantil, la
introducción en el mercado o la puesta en servicio de sistemas de IA que no hayan
sido sometidos a una evaluación de la conformidad.
(69) Con el objetivo de facilitar la labor de la Comisión y de los Estados miembros en el
ámbito de la inteligencia artificial, así como de incrementar la transparencia de cara al
público, debe exigirse a los proveedores de sistemas de IA de alto riesgo que no están
asociados a productos que entran dentro del ámbito de aplicación de la legislación de
armonización vigente en la Unión que registren dichos sistemas en una base de datos
ES 38 ES