Page 40 - Perez
P. 40
discriminación prohibidos por el Derecho de la Unión. Es preciso instaurar prácticas
adecuadas de gestión y gobernanza de datos para lograr que los conjuntos de datos de
entrenamiento, validación y prueba sean de buena calidad. Los conjuntos de datos de
entrenamiento, validación y prueba deben ser lo suficientemente pertinentes y
representativos, carecer de errores y ser completos en vista de la finalidad prevista del
sistema. Asimismo, deben tener las propiedades estadísticas adecuadas, también en lo
que respecta a las personas o los grupos de personas en las que en un principio se
usará el sistema de IA de alto riesgo. En concreto, los conjuntos de datos de
entrenamiento, validación y prueba deben tener en cuenta, en la medida necesaria en
función de su finalidad prevista, los rasgos, características o elementos particulares del
entorno o contexto geográfico, conductual o funcional específico en el que se pretende
utilizar el sistema de IA. Con el fin de proteger los derechos de terceros frente a la
discriminación que podría provocar el sesgo de los sistemas de IA, los proveedores
deben ser capaces de tratar también categorías especiales de datos personales, como
cuestión de interés público esencial, para garantizar que el sesgo de los sistemas de IA
de alto riesgo se vigile, detecte y corrija.
(45) Para poder desarrollar sistemas de IA de alto riesgo, determinados agentes, tales como
proveedores, organismos notificados y otras entidades pertinentes, como centros de
innovación digital, centros de ensayo y experimentación e investigadores, deben tener
acceso a conjuntos de datos de alta calidad en sus respectivos campos de actividad
relacionados con el presente Reglamento y poder utilizarlos. Los espacios comunes
europeos de datos establecidos por la Comisión y la facilitación del intercambio de
datos entre empresas y con los Gobiernos en aras del interés público serán esenciales
para brindar un acceso fiable, responsable y no discriminatorio a datos de alta calidad
con los que entrenar, validar y probar los sistemas de IA. Por ejemplo, en el ámbito de
la salud, el espacio europeo de datos sanitarios facilitará el acceso no discriminatorio a
datos sanitarios y el entrenamiento, a partir de esos conjuntos de datos, de algoritmos
de inteligencia artificial de una manera segura, oportuna, transparente y fiable que
respete la privacidad, y contando con la debida gobernanza institucional. Las
autoridades competentes pertinentes, incluidas las sectoriales, que proporcionan
acceso a datos o lo facilitan también pueden contribuir al suministro de datos de alta
calidad orientados a entrenar, validar y probar sistemas de IA.
(46) Para verificar si los sistemas de IA de alto riesgo cumplen los requisitos previstos en el
presente Reglamento, resulta esencial disponer de información sobre el modo en que
se han desarrollado y sobre su funcionamiento durante todo su ciclo de vida. A tal fin,
es preciso llevar registros y disponer de documentación técnica que contenga la
información necesaria para evaluar si el sistema de IA en cuestión cumple los
requisitos pertinentes. Dicha información debe incluir, en particular, las características,
capacidades y limitaciones generales del sistema; los algoritmos; los datos; los
procesos de entrenamiento, pruebo y validación empleados, y documentación sobre el
sistema de gestión de riesgos pertinente. La documentación técnica debe mantenerse
actualizada.
(47) Por otro lado, debe exigirse cierto grado de transparencia respecto de los sistemas de
IA de alto riesgo para subsanar la opacidad que puede hacer a algunos de ellos
incomprensibles o demasiado complejos para las personas físicas. Los usuarios deben
ser capaces de interpretar la información de salida del sistema y de usarla
adecuadamente. En consecuencia, los sistemas de IA de alto riesgo deben ir
acompañados de la documentación y las instrucciones de uso oportunas e incluir
ES 34 ES