Page 17 - Perez
P. 17
Opción 3+: un instrumento legislativo horizontal de la UE que se apoye en un
enfoque proporcionado basado en los riesgos + códigos de conducta para los
sistemas de IA que no sean de alto riesgo.
Opción 4: un instrumento legislativo horizontal de la UE que establezca requisitos
obligatorios para todos los sistemas de IA, con independencia del riesgo que
conlleven.
Conforme a la metodología establecida por la Comisión, se evaluó cada opción atendiendo a
sus repercusiones económicas y sociales, prestando especial atención a su impacto para los
derechos fundamentales. La opción preferida es la opción 3+, un marco regulatorio que
únicamente se aplique a los sistemas de IA de alto riesgo, con la posibilidad de que todos los
proveedores de sistemas de IA que no sean de alto riesgo sigan un código de conducta. Los
requisitos se referirán a los datos, la documentación y la trazabilidad; la comunicación de
información y la transparencia; la vigilancia humana, y la solidez y la precisión, y serían de
obligado cumplimiento para los sistemas de IA de alto riesgo. Las empresas podrían
introducir códigos de conducta para otros sistemas de IA de forma voluntaria.
Se consideró que la opción preferida era adecuada para responder de la manera más eficaz a
los objetivos de la presente propuesta. Al exigir que los desarrolladores y usuarios de IA
adopten una serie de medidas limitadas pero efectivas, la opción preferida contribuye a
reducir el riesgo de que se vulneren los derechos fundamentales y se ponga en peligro la
seguridad de las personas, al tiempo que fomenta la supervisión y el cumplimiento efectivos,
pues centra los requisitos únicamente en los sistemas en los que el riesgo de que se produzcan
tales violaciones es elevado. En consecuencia, dicha opción reduce al mínimo los costes de
cumplimiento, evitando así que la adopción se ralentice innecesariamente debido a unos
precios y costes de cumplimiento más elevados. Al objeto de evitar las posibles desventajas
para las pymes, esta opción incluye varias disposiciones que facilitan el cumplimiento de los
requisitos correspondientes y reducen sus costes. Entre otras cosas, estas disposiciones prevén
la creación de espacios controlados de pruebas y establecen la obligación de tener en cuenta
los intereses de las pymes cuando se fijen las tarifas asociadas a la evaluación de la
conformidad.
La opción preferida incrementará la confianza de la población en la IA, brindará una mayor
seguridad jurídica a las empresas, y hará que los Estados miembros dejen de tener motivos
para adoptar medidas unilaterales que podrían fragmentar el mercado único. El incremento de
la demanda debido al aumento de la confianza, la mayor cantidad de ofertas disponibles
gracias a la seguridad jurídica y la ausencia de obstáculos para la circulación transfronteriza
de sistemas de IA harán, con toda probabilidad, que el mercado único para la IA florezca. La
Unión Europea continuará desarrollando un ecosistema de IA de rápido crecimiento de
servicios y productos innovadores con tecnología de IA integrada o sistemas de IA
independientes, el cual redundará en el aumento de la autonomía digital.
Las empresas o las autoridades públicas que desarrollen o utilicen aplicaciones de IA que
entrañen un riesgo elevado para la seguridad o los derechos fundamentales de los ciudadanos
tendrían que cumplir requisitos y obligaciones específicos. El cumplimiento de estos
requisitos tendría un coste aproximado de entre 6 000 y 7 000 EUR para el suministro de
un sistema de IA de alto riesgo promedio con un valor de en torno a 170 000 EUR para 2025.
Por su parte, los usuarios de la IA tendrían que cubrir, cuando correspondiese, el coste anual
del tiempo dedicado a garantizar la vigilancia humana, en función del uso concreto que hagan.
Se calcula que este coste ascendería a entre 5 000 y 8 000 EUR al año, aproximadamente.
Además, los proveedores de IA de alto riesgo podrían tener que abonar unos costes de
verificación adicionales de entre 3 000 y 7 500 EUR. Las empresas o las autoridades públicas
ES 11 ES