Page 15 - Perez
P. 15
pequeñas y medianas empresas, mientras que el resto eran asociaciones comerciales. En total,
el 84 % de las respuestas de empresas e industrias procedieron de la EU-27. Dependiendo de
la pregunta, entre 81 y 598 de los encuestados utilizaron la opción de texto libre para añadir
comentarios. Se presentaron más de 450 documentos de posición a través del sitio web de EU
Survey, bien para aportar información adicional a las respuestas del cuestionario (más de
400), o bien como contribuciones independientes (más de 50).
En términos generales, las partes interesadas coinciden en la necesidad de tomar medidas.
Una gran mayoría cree que existen lagunas legislativas o que se requiere una nueva
legislación. No obstante, varias partes interesadas advirtieron a la Comisión de la necesidad
de evitar duplicidades, obligaciones contradictorias y la sobrerregulación. Numerosos
comentarios insistieron en la importancia de adoptar un marco reglamentario proporcionado y
tecnológicamente neutro.
Las partes interesadas solicitaron fundamentalmente una definición ajustada, clara y precisa
de la IA. Asimismo, señalaron que, además de aclarar el término «inteligencia artificial», es
importante definir conceptos como «riesgo», «alto riesgo», «bajo riesgo», «identificación
biométrica remota» y «perjuicio».
La mayoría de los encuestados está explícitamente a favor del enfoque basado en el riesgo. Se
consideró que un marco basado en riesgos era una opción mejor que un Reglamento que cubra
todos los sistemas de IA. Los tipos de riesgos y amenazas deben basarse en un planteamiento
sector por sector y caso por caso. Asimismo, los riesgos deben calcularse teniendo en cuenta
su repercusión para los derechos y la seguridad.
Los espacios controlados de pruebas podrían resultar muy útiles para promover la IA, y
algunas partes interesadas, en especial las asociaciones comerciales, los consideran una buena
opción.
Más del 50 % de los encuestados que dieron su opinión sobre los modelos de aplicación, en
especial los pertenecientes a asociaciones comerciales, se mostraron a favor de combinar una
autoevaluación de riesgos ex ante con la supervisión ex post en el caso de los sistemas de IA
de alto riesgo.
3.2. Obtención y uso de asesoramiento especializado
La propuesta se sustenta en dos años de análisis y estrecha colaboración de las partes
interesadas, entre las que figuran académicos, empresas, interlocutores sociales,
organizaciones no gubernamentales, Estados miembros y ciudadanos. El trabajo preparatorio
comenzó en 2018 con la creación de un grupo de expertos de alto nivel sobre IA, con una
composición amplia e inclusiva. En concreto, estaba integrado por cincuenta y dos expertos
reconocidos cuya misión era asesorar a la Comisión sobre la aplicación de la Estrategia sobre
23
Inteligencia Artificial de la propia Comisión. En abril de 2019, la Comisión respaldó los
24
requisitos clave establecidos en las directrices éticas para una IA fiable de dicho grupo de
expertos, los cuales se habían revisado para tener en cuenta las más de
quinientas contribuciones presentadas por las partes interesadas. Dichos requisitos clave son
el reflejo de la idea generalizada y común, como demuestra el amplio abanico de códigos y
principios éticos desarrollados por multitud de organizaciones privadas y públicas en Europa
y otros lugares, de que el desarrollo y la utilización de la IA deben guiarse por determinados
principios esenciales orientados a los valores. La lista de evaluación para una inteligencia
23 Comisión Europea, Generar confianza en la inteligencia artificial centrada en el ser humano
[COM(2019) 168].
24 Grupo de expertos de alto nivel sobre inteligencia artificial, Directrices éticas para una IA fiable, 2019.
ES 9 ES