Page 15 - Perez
P. 15

pequeñas y medianas empresas, mientras que el resto eran asociaciones comerciales. En total,
               el 84 % de las respuestas de empresas e industrias procedieron de la EU-27. Dependiendo de
               la pregunta, entre 81 y 598 de los encuestados utilizaron la opción de texto libre para añadir
               comentarios. Se presentaron más de 450 documentos de posición a través del sitio web de EU
               Survey,  bien  para  aportar  información  adicional  a  las  respuestas  del  cuestionario  (más  de
               400), o bien como contribuciones independientes (más de 50).
               En  términos  generales,  las  partes  interesadas  coinciden  en  la  necesidad  de  tomar  medidas.
               Una  gran  mayoría  cree  que  existen  lagunas  legislativas  o  que  se  requiere  una  nueva
               legislación. No obstante, varias partes interesadas advirtieron a la Comisión de la necesidad
               de  evitar  duplicidades,  obligaciones  contradictorias  y  la  sobrerregulación.  Numerosos
               comentarios insistieron en la importancia de adoptar un marco reglamentario proporcionado y
               tecnológicamente neutro.
               Las partes interesadas solicitaron fundamentalmente una definición ajustada, clara y precisa
               de la IA. Asimismo, señalaron que, además de aclarar el término «inteligencia artificial», es
               importante  definir  conceptos  como  «riesgo»,  «alto  riesgo»,  «bajo  riesgo»,  «identificación
               biométrica remota» y «perjuicio».

               La mayoría de los encuestados está explícitamente a favor del enfoque basado en el riesgo. Se
               consideró que un marco basado en riesgos era una opción mejor que un Reglamento que cubra
               todos los sistemas de IA. Los tipos de riesgos y amenazas deben basarse en un planteamiento
               sector por sector y caso por caso. Asimismo, los riesgos deben calcularse teniendo en cuenta
               su repercusión para los derechos y la seguridad.
               Los  espacios  controlados  de  pruebas  podrían  resultar  muy  útiles  para  promover  la  IA,  y
               algunas partes interesadas, en especial las asociaciones comerciales, los consideran una buena
               opción.
               Más del 50 % de los encuestados que dieron su opinión sobre los modelos de aplicación, en
               especial los pertenecientes a asociaciones comerciales, se mostraron a favor de combinar una
               autoevaluación de riesgos ex ante con la supervisión ex post en el caso de los sistemas de IA
               de alto riesgo.

               3.2.     Obtención y uso de asesoramiento especializado
               La  propuesta  se  sustenta  en  dos  años  de  análisis  y  estrecha  colaboración  de  las  partes
               interesadas,  entre  las  que  figuran  académicos,  empresas,  interlocutores  sociales,
               organizaciones no gubernamentales, Estados miembros y ciudadanos. El trabajo preparatorio
               comenzó en 2018 con la creación de un grupo de expertos de alto nivel sobre IA, con una
               composición amplia e inclusiva. En concreto, estaba integrado por cincuenta y dos expertos
               reconocidos cuya misión era asesorar a la Comisión sobre la aplicación de la Estrategia sobre
                                                                                                     23
               Inteligencia Artificial de la propia Comisión. En abril de 2019, la Comisión respaldó  los
                                                                                      24
               requisitos clave establecidos en las directrices éticas para una IA fiable  de dicho grupo de
               expertos,  los  cuales  se  habían  revisado  para  tener  en  cuenta  las  más  de
               quinientas contribuciones presentadas por las partes interesadas. Dichos requisitos clave son
               el reflejo de la idea generalizada y común, como demuestra el amplio abanico de códigos y
               principios éticos desarrollados por multitud de organizaciones privadas y públicas en Europa
               y otros lugares, de que el desarrollo y la utilización de la IA deben guiarse por determinados
               principios  esenciales  orientados  a  los  valores.  La  lista  de  evaluación  para  una  inteligencia

               23     Comisión  Europea,  Generar  confianza  en  la  inteligencia  artificial  centrada  en  el  ser  humano
                      [COM(2019) 168].
               24     Grupo de expertos de alto nivel sobre inteligencia artificial, Directrices éticas para una IA fiable, 2019.




       ES                                                   9                                               ES
   10   11   12   13   14   15   16   17   18   19   20