Scegli le funzioni sperimentali da provare

Questo documento è un estratto del sito web EUR-Lex.

Documento EESC-2021-02482-AS

IA - Reglamento

EESC-2021-02482-AS

ES

INT/940

IA / Reglamento

DICTAMEN

Sección de Mercado Único, Producción y Consumo

Propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial (Ley de Inteligencia Artificial) y se modifican determinados actos legislativos de la Unión

[COM(2021) 206 final – 2021/106 (COD)]

Contacto

int@eesc.europa.eu  

Administradora

Alice Tétu

Fecha del documento

09/09/2021

Ponente: Catelijne MULLER

 

Consultas

Parlamento Europeo, 07/06/2021

Consejo, 15/06/2021

Base jurídica

Artículo 114 del Tratado de Funcionamiento de la Unión Europea

Sección competente

Sección de Mercado Único, Producción y Consumo

Aprobado en la sección

02/09/2021

Aprobado en el pleno

DD/MM/AAAA

Pleno n.º

Resultado de la votación
(a favor/en contra/abstenciones)

…/…/…



1.Conclusiones y recomendaciones

1.1El Comité Económico y Social Europeo (CESE) valora positivamente que la propuesta de Ley de Inteligencia Artificial de la Comisión no solo aborde los riesgos asociados a la inteligencia artificial (IA), sino que también aumente considerablemente los niveles mínimos de calidad, rendimiento y fiabilidad de la IA que la UE está dispuesta a aceptar. El CESE se muestra especialmente satisfecho con que la Ley de Inteligencia Artificial otorgue un papel central a la salud, la seguridad y los derechos fundamentales, además de tener un alcance mundial.

1.2El CESE considera que hay margen de mejora con respecto del alcance, la definición y la claridad de las prácticas de IA prohibidas, las implicaciones de las clasificaciones efectuadas en relación con la «pirámide de riesgo», el efecto de reducción del riesgo de los requisitos para la IA de alto riesgo y la aplicación de la Ley de Inteligencia Artificial, así como su relación con la normativa existente y con otras propuestas legislativas recientes.

1.3El CESE resalta que la IA nunca ha operado en un mundo sin ley. Debido a su amplio alcance y a su prelación como Reglamento de la UE, la Ley de Inteligencia Artificial puede generar tensiones con las leyes existentes a escala nacional y de la UE y las propuestas legislativas conexas. El CESE recomienda modificar el considerando (41) para reflejar y aclarar debidamente las relaciones entre la Ley de Inteligencia Artificial y la legislación vigente y futura.

1.4El CESE recomienda también aclarar la definición de IA eliminando el anexo I, modificando ligeramente el artículo 3 y ampliando el ámbito de aplicación de la Ley de Inteligencia Artificial para incluir los «sistemas heredados de IA» y los componentes de IA de los sistemas informáticos de gran magnitud en el espacio de libertad, seguridad y justicia mencionados en el anexo IX.

1.5Asimismo, el CESE recomienda aclarar las prohibiciones relativas a las «técnicas subliminales» y al aprovechamiento de las «vulnerabilidades» de modo que se refleje la prohibición de una manipulación dañina, así como incluir «el menoscabo de los derechos fundamentales, la democracia y el Estado de Derecho» como condiciones de dichas prohibiciones.

1.6El CESE considera que la clasificación de la fiabilidad de los ciudadanos de la Unión sobre la base de su comportamiento social o las características de su personalidad no tiene cabida en la UE, independientemente del agente encargado de realizarla. El CESE recomienda ampliar el ámbito de aplicación de esta prohibición para incluir las clasificaciones sociales de organizaciones privadas y autoridades semipúblicas.

1.7El CESE pide que se prohíba el uso de la IA para el reconocimiento automatizado biométrico en espacios accesibles de forma pública y privada, excepto con fines de autenticación en circunstancias específicas, así como para el reconocimiento automatizado de señales de comportamiento humano en dichos espacios, excepto en casos muy específicos, como por determinados motivos de salud, en situaciones en las que el reconocimiento de las emociones del paciente puede resultar útil.

1.8Este enfoque «basado en listas» para la IA de alto riesgo puede conllevar la normalización y la integración de diversos sistemas y usos de la IA que siguen recibiendo muchas críticas. El CESE advierte de que el cumplimiento de los requisitos establecidos para la IA de riesgo medio y alto no reduce necesariamente los riesgos de menoscabo de la salud, la seguridad y los derechos fundamentales de todos los tipos de IA de alto riesgo. El CESE recomienda que la Ley de Inteligencia Artificial contemple esta situación. Como mínimo, deben añadirse los requisitos en materia de: i) acción humana, ii) privacidad, iii) diversidad, no discriminación y equidad, iv) explicabilidad y v) bienestar medioambiental y social que figuran en las Directrices éticas para una IA fiable.

1.9De conformidad con el enfoque de la IA basado en el «control humano» que ha defendido durante mucho tiempo, el CESE recomienda firmemente que la Ley de Inteligencia Artificial contemple que determinadas decisiones sigan correspondiendo a las personas, especialmente en ámbitos donde estas decisiones tengan un elemento moral e implicaciones jurídicas o repercusión social, como en los ámbitos judicial y policial, los servicios sociales, la sanidad, la vivienda, los servicios financieros, las relaciones laborales y la enseñanza.

1.10El CESE recomienda que las evaluaciones de conformidad realizadas por terceros sean obligatorias para todos los casos de IA de alto riesgo.

1.11El CESE también propone incluir un mecanismo de denuncia y recurso para las organizaciones y los ciudadanos que se han visto perjudicados por un sistema o una práctica de IA, o una utilización de la IA, dentro del ámbito de aplicación de la Ley de Inteligencia Artificial.

2.Propuesta legislativa sobre inteligencia artificial – Ley de Inteligencia Artificial

2.1El CESE valora positivamente que la propuesta de Ley de Inteligencia Artificial de la Comisión no solo aborde los riesgos asociados a la IA, sino que también aumente considerablemente los niveles mínimos de calidad, rendimiento y fiabilidad de la IA que la UE está dispuesta a aceptar.

3.Observaciones generales – Ley de Inteligencia Artificial

Objetivo y ámbito de aplicación

3.1El CESE acoge con satisfacción tanto los objetivos como el ámbito de aplicación de la Ley de Inteligencia Artificial, especialmente el hecho de que la Comisión otorgue un papel central a la salud, la seguridad y los derechos fundamentales en el marco de dicha ley. El CESE también acoge favorablemente los efectos externos de la Ley de Inteligencia Artificial, que garantizan que la IA desarrollada fuera de la UE cumplan las mismas normas jurídicas en caso de desplegarse o tener un impacto dentro de la UE.

Definición de IA

3.2La definición de IA (artículo 3, apartado 1, junto con el anexo I de la Ley de Inteligencia Artificial) ha generado debate entre los científicos del ámbito de la IA, en el sentido de que creen que varios de los ejemplos del anexo I no constituyan inteligencia artificial y que faltan bastantes técnicas importantes de IA. El CESE no considera que el anexo I tenga un valor añadido y recomienda su eliminación completa de la Ley de Inteligencia Artificial, así como la modificación de la definición del artículo 3, apartado 1, de la siguiente manera:

«Sistema de inteligencia artificial (sistema de IA)»: el software que puede, de forma automática y para un conjunto determinado de objetivos definidos por seres humanos, generar información de salida como contenidos, predicciones, recomendaciones o decisiones que influyan en los entornos con los que interactúa.»

Salud, seguridad y derechos fundamentales – La pirámide de riesgos

3.3La «pirámide de riesgos» ascendente (del riesgo medio/bajo hasta el riesgo inaceptable, pasando por el riesgo alto) que se emplea para clasificar una serie de prácticas y casos de uso de la IA en ámbitos específicos reconoce que no todos los tipos de IA suponen un riesgo y que no todos los riesgos son iguales o requieren las mismas medidas de mitigación.

3.4El enfoque escogido nos plantea dos cuestiones importantes. En primer lugar: ¿las medidas de mitigación (para la IA de alto riesgo y de riesgo bajo/medio) reducen los riesgos de menoscabo de la salud, la seguridad y los derechos fundamentales de forma suficiente? En segundo lugar: ¿estamos dispuestos a permitir que la IA sustituya en gran medida la toma de decisiones de las personas, incluso en procesos críticos como las acciones policiales o del poder judicial?

3.5Con respecto a la primera pregunta, el CESE advierte de que el cumplimiento de los requisitos establecidos para la IA de riesgo medio y alto no reduce necesariamente los riesgos de menoscabo de la salud, la seguridad y los derechos fundamentales en todos los casos. Este aspecto se desarrollará más detenidamente en el punto 4.

3.6En cuanto a la segunda pregunta, la Ley de Inteligencia Artificial no incluye la noción de que la promesa de la IA reside en aumentar la toma de decisiones y la inteligencia de las personas, no en sustituirlas. La Ley de Inteligencia Artificial parte de la base de que, una vez que se cumplan los requisitos para la IA de riesgo medio y alto, la IA puede sustituir la toma de decisiones de las personas.

3.7El CESE recomienda encarecidamente que la Ley de Inteligencia Artificial contemple que determinadas decisiones sigan correspondiendo a las personas, especialmente en ámbitos donde estas decisiones tengan un elemento moral e implicaciones jurídicas o repercusión social, como en los ámbitos judicial y policial, los servicios sociales, la sanidad, la vivienda, los servicios financieros, las relaciones laborales y la enseñanza.

3.8Los sistemas de IA no operan en un mundo sin leyes. En la actualidad ya existen diversas normas jurídicamente vinculantes a nivel europeo, nacional e internacional que se aplican a los sistemas de IA o son pertinentes para estos. Las fuentes jurídicas incluyen, entre otras, las siguientes: el Derecho primario de la UE (los Tratados de la Unión Europea y la Carta de los Derechos Fundamentales de la Unión Europea), el Derecho derivado de la UE (como el Reglamento General de Protección de Datos, la Directiva relativa a la responsabilidad por los daños causados por productos defectuosos, el Reglamento relativo a un marco para la libre circulación de datos no personales, las Directivas contra la discriminación, la legislación en materia de protección de los consumidores y las Directivas en materia de seguridad y salud en el trabajo), los tratados de las Naciones Unidas sobre derechos humanos y los convenios del Consejo de Europa (como el Convenio Europeo de Derechos Humanos), así como numerosas leyes de los Estados miembros de la UE. Además de las normas de aplicación horizontal, existen diversas normas de carácter sectorial aplicables a determinados usos de la IA (por ejemplo, el Reglamento sobre productos sanitarios en el caso del sector sanitario). El CESE recomienda modificar el considerando (41) para reflejar debidamente este hecho.

4.Observaciones específicas y recomendaciones – Ley de inteligencia artificial

Prácticas de IA prohibidas

4.1El CESE está de acuerdo en que las prácticas de IA mencionadas en el artículo 5 no suponen ningún beneficio social y deben prohibirse. Algunas formulaciones, no obstante, no están claras, con lo que determinadas prohibiciones pueden ser difíciles de interpretar y fáciles de eludir.

4.2Existen pruebas de técnicas subliminales que pueden, además de causar perjuicios físicos o psicológicos (la condición actualmente necesaria para que esta prohibición específica entre en vigor), derivar en otros efectos adversos personales, sociales o democráticos, como la alteración del comportamiento de voto, debido al entorno en el que se despliegan. Además, el elemento basado en la IA suele ser la decisión de a quién dirigirse con una técnica subliminal, en lugar de la propia técnica subliminal.

4.3A fin de condensar los aspectos que la Ley de Inteligencia Artificial pretende prohibir en el artículo 5, apartado 1, letra a), es decir, la práctica de manipular a las personas para que ejerzan conductas perjudiciales, el CESE recomienda modificar el párrafo de la siguiente forma: «[...] un sistema de IA desplegado, destinado o utilizado para distorsionar sustancialmente el comportamiento de una persona de forma que pueda menoscabar los derechos fundamentales de esa persona, otra persona o de un grupo de personas, incluidas su salud y seguridad físicas o psicológicas, o la democracia y el Estado de Derecho».

4.4El CESE recomienda modificar del mismo modo la práctica prohibida de aprovechar «las vulnerabilidades» contemplada en el artículo 5, apartado 1, letra b), para incluir el menoscabo de los derechos fundamentales, incluidos los perjuicios físicos o psicológicos.

4.5El CESE acoge favorablemente la prohibición de la «calificación social» que se establece en el artículo 5, apartado 1, letra c). El CESE recomienda que la prohibición de la calificación social también se aplique a las organizaciones privadas y las autoridades semipúblicas, no solo a las autoridades públicas. La clasificación de la fiabilidad de los ciudadanos de la UE sobre la base de su comportamiento social o de características de su personalidad no tiene cabida en la UE, independientemente del agente responsable de realizarla. En caso contrario, la UE estaría abriendo la puerta a otros ámbitos donde la calificación social estaría permitida, como el entorno laboral. Deben aclararse las condiciones de los incisos i) y ii) para establecer un límite claro entre lo que se considera «calificación social» y lo que puede considerarse una forma aceptable de evaluación para un determinado fin: esto es, el punto a partir del cual la información utilizada para la evaluación no deba ya considerarse pertinente para el objetivo de la evaluación o razonablemente relacionada con este.

4.6La Ley de Inteligencia Artificial pretende prohibir que los servicios policiales utilicen la identificación biométrica a distancia en tiempo real (mediante el reconocimiento facial, por ejemplo) y clasificar esta práctica como «de alto riesgo» cuando se utilice con otros fines. Queda pues permitido el reconocimiento biométrico «posterior» y «próximo». También queda permitido el reconocimiento biométrico no destinado a identificar a una persona, sino a evaluar su comportamiento a partir de sus características biométricas (microexpresiones, forma de andar, temperatura, frecuencia cardíaca, etc.). El hecho de que la prohibición se limite al ámbito policial permite que cualquier otro agente pueda utilizar la identificación biométrica —así como cualquier otra forma de reconocimiento biométrico que no tenga por objeto la identificación de una persona, incluidas todas las formas mencionadas de «reconocimiento de emociones»— para cualquier otro fin, en cualquier lugar público y privado, en particular en lugares de trabajo, tiendas, estadios, teatros, etc. Esto deja la puerta abierta a un mundo en el que seamos «evaluados emocionalmente» de manera constante para cualquier fin que considere necesario el agente que nos evalúa.

4.7La Ley de Inteligencia Artificial suele calificar el «reconocimiento de emociones» como de bajo riesgo, con la excepción de algunos dominios de usuario, donde se han calificado como de alto riesgo. Este tipo de reconocimiento biométrico también se conoce como «reconocimiento de afectos» y, en ocasiones, como «reconocimiento de conductas». Todos estos tipos de prácticas de IA son extremadamente invasivos, no tienen ninguna base científica sólida y pueden menoscabar sustancialmente una serie de derechos fundamentales contemplados en la Carta de los Derechos Fundamentales de la Unión Europea, como el derecho a la dignidad humana, el derecho a la integridad de la persona (que incluye la integridad mental) y el respeto de la vida privada.

4.8Coincidiendo en líneas generales con la petición del Supervisor Europeo de Protección de Datos y el Comité Europeo de Protección de Datos, presentada el 21 de junio de 2021, de prohibir el uso de la IA para el reconocimiento automatizado de rasgos humanos en espacios de acceso público, así como algunos otros usos de la IA que pueden dar lugar a una discriminación injusta, el CESE pide:

-la prohibición del uso de la IA para el reconocimiento biométrico automatizado, en los espacios de acceso público y privado (como los rostros, la forma de andar, la voz y otras señales biométricas), excepto con fines de autenticación en circunstancias específicas (por ejemplo, para facilitar el acceso a espacios sensibles desde el punto de vista de la seguridad);

-la prohibición del uso de la IA para el reconocimiento automatizado, en los espacios de acceso público y privado, de señales de comportamiento humano;

-la prohibición de los sistemas de IA que utilicen la biometría para clasificar a las personas en grupos en función de su etnia, género, orientación política o sexual o cualquier otro motivo de discriminación prohibido en el artículo 21 de la Carta de los Derechos Fundamentales de la Unión Europea;

-la prohibición de utilizar la IA para inferir las emociones, la conducta, la intención o los rasgos de una persona física, excepto en casos muy específicos, como determinados fines relacionados con la salud, en los que sea importante reconocer las emociones del paciente.

IA de alto riesgo:

4.9A la hora de decidir si una práctica o un uso de IA que supone un riesgo para la salud, la seguridad o los derechos fundamentales deben estar permitidos en condiciones restringidas, la Comisión analizó dos elementos: en primer lugar, i) si la práctica o el uso de IA puede tener beneficios sociales; y, en segundo lugar, ii) si los riesgos de un perjuicio para la salud, la seguridad y los derechos fundamentales que supone este uso pueden reducirse mediante el cumplimiento de una serie de requisitos.

4.10El CESE acoge favorablemente la adaptación de estos requisitos a los elementos de las Directrices éticas para una IA fiable. Sin embargo, la Ley de Inteligencia Artificial no contempla específicamente cinco requisitos importantes relativos a la IA de alto riesgo incluidos en las Directrices, a saber: i) la acción humana, ii) la privacidad, iii) la diversidad, no discriminación y equidad, iv) la explicabilidad y v) el bienestar ambiental y social. El CESE considera que esto supone una oportunidad perdida, ya que muchos de los riesgos que plantea la IA están relacionados con la privacidad, el sesgo, la exclusión, la inexplicabilidad de los resultados de las decisiones de la IA, el menoscabo de la acción humana y el medio ambiente, aspectos todos ellos que afectan a nuestros derechos fundamentales.

4.11El CESE recomienda sumar estos requisitos a los del capítulo 2, título III, de la Ley de Inteligencia Artificial, a fin de que dicha ley pueda proteger efectivamente nuestra salud y seguridad, así como nuestros derechos fundamentales, de los efectos adversos del uso de la IA por parte de las autoridades públicas y las entidades privadas. 

4.12El CESE valora positivamente el «sistema entrelazado» entre la Ley de Inteligencia Artificial y la legislación de armonización de la Unión. Recomienda que se amplíe el ámbito de aplicación de la Ley de Inteligencia Artificial y los requisitos para la IA de alto riesgo, más allá de los «componentes de seguridad de la IA» o la situación en que el propio sistema de IA sea un producto cubierto por la legislación de armonización de la Unión enumerado en el anexo II. Esto se debe a que la IA puede suponer un riesgo no solo cuando se emplea como un componente de seguridad de estos productos; además, el propio sistema de IA no es siempre un producto. Por ejemplo, cuando se utiliza en el marco de un instrumento de diagnóstico o pronóstico en el ámbito médico, o cuando un termostato basado en la IA regula un calentador.

4.13No obstante, el CESE advierte que el enfoque «basado en listas» para la IA de alto riesgo escogido en el anexo III puede llevar a la legitimación, normalización e integración de un gran número de prácticas de IA que todavía reciben muchas críticas y cuyos beneficios sociales son cuestionables o inexistentes.

4.14Además, los riesgos de menoscabo de la salud, la seguridad y los derechos fundamentales no se reducen siempre necesariamente a través del cumplimiento de los cinco requisitos establecidos para la IA de alto riesgo, en particular con respecto de los derechos fundamentales menos mencionados que podrían verse afectados por la IA, como el derecho a la dignidad humana, la presunción de inocencia, el derecho a unas condiciones de trabajo justas y equitativas, la libertad de asociación y de reunión y el derecho de huelga, entre otros.

4.15El CESE recomienda encarecidamente añadir la gestión y la operación de la infraestructura de telecomunicaciones e internet al punto 2 del anexo III. El CESE también recomienda ampliar el ámbito de aplicación de este punto más allá de los elementos de seguridad de la IA.

4.16Los sistemas de IA para determinar el acceso a la educación y evaluar a los estudiantes plantean una serie de riesgos de menoscabo de la salud, la seguridad y los derechos fundamentales de los estudiantes. Las herramientas de supervisión en línea, por ejemplo, destinadas supuestamente a señalar «comportamientos sospechosos» e «indicios de fraude» durante los exámenes en línea mediante el uso de todo tipo de indicadores biométricos y de control del comportamiento, son verdaderamente invasivas y no existen pruebas científicas al respecto.

4.17El uso de sistemas de IA para el control, el seguimiento y la evaluación de trabajadores plantea graves preocupaciones con respecto de sus derechos fundamentales a unas condiciones de trabajo equitativas y justas, así como a la información y consulta y a no ser despedidos sin causa justificada. La inclusión de estos sistemas de IA en la lista de alto riesgo puede generar conflictos con la legislación laboral nacional y los convenios colectivos en materia de despido procedente e improcedente, condiciones de trabajo saludables y seguras e información a los trabajadores. El CESE pide que se garantice la plena participación e información de los trabajadores y los interlocutores sociales en el proceso de toma de decisiones sobre el uso de la IA en el lugar de trabajo, así como sobre su desarrollo, adquisición y despliegue.

4.18El requisito de «vigilancia humana» es especialmente relevante en las relaciones laborales, puesto que un trabajador o un grupo de trabajadores se encargarán de ella. El CESE subraya que estos trabajadores deben recibir formación sobre cómo llevar a cabo esta tarea. Además, dado que se espera que estos trabajadores puedan ignorar el resultado del sistema de IA o incluso no utilizarlo, deben establecerse medidas para evitar el miedo a represalias (como la degradación o el despido) en caso de que se tome esa decisión.

4.19El uso de sistemas de IA en relación con el acceso y el disfrute de servicios públicos es más amplio que el uso de sistemas de IA respecto del acceso y el disfrute de servicios privados esenciales; en el caso de los últimos, solo la calificación de la capacidad crediticia por la IA se considera de alto riesgo. El CESE recomienda ampliar el ámbito de aplicación del punto 5, letra b), del anexo III a todos los sistemas de IA destinados a la evaluación de la admisibilidad de los servicios privados esenciales.

4.20La IA empleada por los servicios policiales y en la gestión de la migración, asilo y control de fronteras para realizar evaluaciones del riesgo individuales (en materia penal o de seguridad) supone un riesgo de menoscabo de la presunción de inocencia, los derechos de la defensa y el derecho de asilo de la Carta de Derechos Fundamentales de la Unión Europea. En general, los sistemas de IA suelen buscar simplemente correlaciones basadas en características de otros «casos». En estas situaciones, las sospechas no se basan en una sospecha real de un delito o una falta de la persona en cuestión, sino simplemente en características que esa persona comparte con delincuentes condenados (como la dirección, los ingresos, la nacionalidad, las deudas, el empleo, el comportamiento, tanto propio como de amigos y familiares, etc.).

4.21El uso de la IA en los procesos democráticos y de administración de justicia es especialmente sensible, y debe abordarse con más matices y un mayor escrutinio que en la actualidad. La mera puesta a disposición de sistemas para su utilización por la autoridad judicial en la investigación y la interpretación de los hechos y de la ley, yen la aplicación de la ley a una serie concreta de hechos, no tiene en cuenta que las resoluciones judiciales van más allá de encontrar patrones en datos históricos (que es, en resumen, lo que hacen los sistemas de IA actuales). El texto también asume que estos tipos de IA solo servirán de apoyo en el ámbito judicial, con lo que la toma de decisiones totalmente automatizada se excluye del ámbito de aplicación. El CESE también lamenta que no se mencionen los sistemas o los usos de la IA en el marco de los procesos democráticos, como las elecciones.

4.22El CESE recomienda que se incluya una disposición que contemple la situación en la que bien sea obvio o bien quede claro en la evaluación de conformidad previa que los seis requisitos no reducirán de forma suficiente el riesgo de menoscabo de la salud, la seguridad y los derechos humanos (por ejemplo, mediante la modificación del artículo 16, letra g), de la Ley de Inteligencia Artificial).

Gobernanza y fuerza ejecutiva

4.23El CESE valora positivamente la estructura de gobernanza establecida por la Ley de Inteligencia Artificial. Recomienda al Comité de Inteligencia Artificial que organice intercambios de opiniones obligatorios y periódicos con la sociedad en sentido amplio, incluidos los interlocutores sociales y las ONG.

4.24El CESE recomienda encarecidamente ampliar el ámbito de aplicación de la Ley de Inteligencia Artificial para incluir los «sistemas heredados de IA», es decir, los sistemas que ya están en uso o se han desplegado previamente a la entrada en vigor de la Ley de Inteligencia Artificial, a fin de evitar que los responsables aceleren el despliegue sistemas de IA de riesgo medio y alto prohibidos para evitar los requisitos de cumplimiento. Por otra parte, el CESE recomienda firmemente que no se excluya del ámbito de aplicación de la Ley de inteligencia artificial a la IA que forme parte de los sistemas informáticos a gran escala en el espacio de libertad, seguridad y justicia mencionados en el anexo IX.

4.25La complejidad de los requisitos y las actividades de rendición de cuentas, además de la autoevaluación, corren el riesgo de reducir este proceso a listas de comprobación en las que un simple «sí» o «no» puede ser suficiente para cumplir los requisitos. El CESE recomienda que las evaluaciones de terceros sean obligatorias en todos los casos de IA de alto riesgo.

4.26El CESE recomienda poner a disposición de las microorganizaciones y las pequeñas organizaciones, así como de las organizaciones de la sociedad civil, medidas de apoyo (financieras) adecuadas y herramientas sencillas y accesibles que les permitan ser capaces de entender el objetivo y el significado de la Ley de Inteligencia Artificial, así como de cumplir sus requisitos. Estas medidas deben ir más allá del apoyo a los centros de innovación digital y facilitar el acceso a conocimientos especiales de alto nivel en relación con la Ley de Inteligencia Artificial, sus requisitos, sus obligaciones y, en particular, el razonamiento subyacente a los mismos.

4.27El CESE recomienda la inclusión de un mecanismo de denuncia y recurso para las organizaciones y los ciudadanos que se han visto perjudicados por un sistema, una práctica o una utilización de IA dentro del ámbito de aplicación de la Ley de Inteligencia Artificial.

Bruselas, 2 de septiembre de 2021

Alain COHEUR

Presidente de la Sección de Mercado Único, Producción y Consumo

_____________

In alto