EUR-Lex Access to European Union law

Back to EUR-Lex homepage

This document is an excerpt from the EUR-Lex website

Document 52021AE2482

Dictamen del Comité Económico y Social Europeo sobre la «Propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial (Ley de Inteligencia Artificial) y se modifican determinados actos legislativos de la Unión» [COM(2021) 206 final — 2021/106 (COD)]

EESC 2021/02482

DO C 517 de 22.12.2021, p. 61–66 (BG, ES, CS, DA, DE, ET, EL, EN, FR, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV)

22.12.2021   

ES

Diario Oficial de la Unión Europea

C 517/61


Dictamen del Comité Económico y Social Europeo sobre la «Propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial (Ley de Inteligencia Artificial) y se modifican determinados actos legislativos de la Unión»

[COM(2021) 206 final — 2021/106 (COD)]

(2021/C 517/09)

Ponente:

Catelijne MULLER

Consultas

Parlamento Europeo, 7.6.2021

Consejo, 15.6.2021

Base jurídica

Artículo 114 del Tratado de Funcionamiento de la Unión Europea

Sección competente

Sección de Mercado Único, Producción y Consumo

Aprobado en la sección

2.9.2021

Aprobado en el pleno

22.9.2021

Pleno n.o

563

Resultado de la votación

(a favor/en contra/abstenciones)

225/03/06

1.   Conclusiones y recomendaciones

1.1.

El Comité Económico y Social Europeo (CESE) valora positivamente que la propuesta de Ley de Inteligencia Artificial de la Comisión no solo aborde los riesgos asociados a la inteligencia artificial (IA), sino que también aumente considerablemente los niveles mínimos de calidad, rendimiento y fiabilidad de la IA que la UE está dispuesta a aceptar. El CESE se muestra especialmente satisfecho con que la Ley de Inteligencia Artificial otorgue un papel central a la salud, la seguridad y los derechos fundamentales, además de tener un alcance mundial.

1.2.

El CESE considera que hay margen de mejora con respecto del alcance, la definición y la claridad de las prácticas de IA prohibidas, las implicaciones de las clasificaciones efectuadas en relación con la «pirámide de riesgo», el efecto de reducción del riesgo de los requisitos para la IA de alto riesgo y la aplicación de la Ley de Inteligencia Artificial, así como su relación con la normativa existente y con otras propuestas legislativas recientes.

1.3.

El CESE resalta que la IA nunca ha operado en un mundo sin ley. Debido a su amplio alcance y a su prelación como Reglamento de la UE, la Ley de Inteligencia Artificial puede generar tensiones con las leyes existentes a escala nacional y de la UE y las propuestas legislativas conexas. El CESE recomienda modificar el considerando (41) para reflejar y aclarar debidamente las relaciones entre la Ley de Inteligencia Artificial y la legislación vigente y futura.

1.4.

El CESE recomienda también aclarar la definición de IA eliminando el anexo I, modificando ligeramente el artículo 3 y ampliando el ámbito de aplicación de la Ley de Inteligencia Artificial para incluir los «sistemas heredados de IA» y los componentes de IA de los sistemas informáticos de gran magnitud en el espacio de libertad, seguridad y justicia mencionados en el anexo IX.

1.5.

Asimismo, el CESE recomienda aclarar las prohibiciones relativas a las «técnicas subliminales» y al aprovechamiento de las «vulnerabilidades» de modo que se refleje la prohibición de una manipulación dañina, así como incluir «el menoscabo de los derechos fundamentales, la democracia y el Estado de Derecho» como condiciones de dichas prohibiciones.

1.6.

El CESE considera que la clasificación de la fiabilidad de los ciudadanos de la Unión sobre la base de su comportamiento social o las características de su personalidad no tiene cabida en la UE, independientemente del agente encargado de realizarla. El CESE recomienda ampliar el ámbito de aplicación de esta prohibición para incluir las clasificaciones sociales de organizaciones privadas y autoridades semipúblicas.

1.7.

El CESE pide que se prohíba el uso de la IA para el reconocimiento automatizado biométrico en espacios accesibles de forma pública y privada, excepto con fines de autenticación en circunstancias específicas, así como para el reconocimiento automatizado de señales de comportamiento humano en dichos espacios, excepto en casos muy específicos, como por determinados motivos de salud, en situaciones en las que el reconocimiento de las emociones del paciente puede resultar útil.

1.8.

Este enfoque «basado en listas» para la IA de alto riesgo puede conllevar la normalización y la integración de diversos sistemas y usos de la IA que siguen recibiendo muchas críticas. El CESE advierte de que el cumplimiento de los requisitos establecidos para la IA de riesgo medio y alto no reduce necesariamente los riesgos de menoscabo de la salud, la seguridad y los derechos fundamentales de todos los tipos de IA de alto riesgo. El CESE recomienda que la Ley de Inteligencia Artificial contemple esta situación. Como mínimo, deben añadirse los requisitos en materia de: i) acción humana, ii) privacidad, iii) diversidad, no discriminación y equidad, iv) explicabilidad y v) bienestar medioambiental y social que figuran en las Directrices éticas para una IA fiable.

1.9.

De conformidad con el enfoque de la IA basado en el «control humano» que ha defendido durante mucho tiempo, el CESE recomienda firmemente que la Ley de Inteligencia Artificial contemple que determinadas decisiones sigan correspondiendo a las personas, especialmente en ámbitos donde estas decisiones tengan un elemento moral e implicaciones jurídicas o repercusión social, como en los ámbitos judicial y policial, los servicios sociales, la sanidad, la vivienda, los servicios financieros, las relaciones laborales y la enseñanza.

1.10.

El CESE recomienda que las evaluaciones de conformidad realizadas por terceros sean obligatorias para todos los casos de IA de alto riesgo.

1.11.

El CESE también propone incluir un mecanismo de denuncia y recurso para las organizaciones y los ciudadanos que se han visto perjudicados por un sistema o una práctica de IA, o una utilización de la IA, dentro del ámbito de aplicación de la Ley de Inteligencia Artificial.

2.   Propuesta legislativa sobre inteligencia artificial — Ley de Inteligencia Artificial

2.1.

El CESE valora positivamente que la propuesta de Ley de Inteligencia Artificial de la Comisión no solo aborde los riesgos asociados a la IA, sino que también aumente considerablemente los niveles mínimos de calidad, rendimiento y fiabilidad de la IA que la UE está dispuesta a aceptar.

3.   Observaciones generales — Ley de Inteligencia Artificial

Objetivo y ámbito de aplicación

3.1.

El CESE acoge con satisfacción tanto los objetivos como el ámbito de aplicación de la Ley de Inteligencia Artificial, especialmente el hecho de que la Comisión otorgue un papel central a la salud, la seguridad y los derechos fundamentales en el marco de dicha ley. El CESE también acoge favorablemente los efectos externos de la Ley de Inteligencia Artificial, que garantizan que la IA desarrollada fuera de la UE cumplan las mismas normas jurídicas en caso de desplegarse o tener un impacto dentro de la UE.

Definición de IA

3.2.

La definición de IA (artículo 3, apartado 1, junto con el anexo I de la Ley de Inteligencia Artificial) ha generado debate entre los científicos del ámbito de la IA, en el sentido de que creen que varios de los ejemplos del anexo I no constituyan inteligencia artificial y que faltan bastantes técnicas importantes de IA. El CESE no considera que el anexo I tenga un valor añadido y recomienda su eliminación completa de la Ley de Inteligencia Artificial, así como la modificación de la definición del artículo 3, apartado 1, de la siguiente manera:

«Sistema de inteligencia artificial (sistema de IA)»: el software que puede, de forma automática y para un conjunto determinado de objetivos definidos por seres humanos, generar información de salida como contenidos, predicciones, recomendaciones o decisiones que influyan en los entornos con los que interactúa.»

Salud, seguridad y derechos fundamentales — La pirámide de riesgos

3.3.

La «pirámide de riesgos» ascendente (del riesgo medio/bajo hasta el riesgo inaceptable, pasando por el riesgo alto) que se emplea para clasificar una serie de prácticas y casos de uso de la IA en ámbitos específicos reconoce que no todos los tipos de IA suponen un riesgo y que no todos los riesgos son iguales o requieren las mismas medidas de mitigación.

3.4.

El enfoque escogido nos plantea dos cuestiones importantes. En primer lugar: ¿las medidas de mitigación (para la IA de alto riesgo y de riesgo bajo/medio) reducen los riesgos de menoscabo de la salud, la seguridad y los derechos fundamentales de forma suficiente? En segundo lugar: ¿estamos dispuestos a permitir que la IA sustituya en gran medida la toma de decisiones de las personas, incluso en procesos críticos como las acciones policiales o del poder judicial?

3.5.

Con respecto a la primera pregunta, el CESE advierte de que el cumplimiento de los requisitos establecidos para la IA de riesgo medio y alto no reduce necesariamente los riesgos de menoscabo de la salud, la seguridad y los derechos fundamentales en todos los casos. Este aspecto se desarrollará más detenidamente en el punto 4.

3.6.

En cuanto a la segunda pregunta, la Ley de Inteligencia Artificial no incluye la noción de que la promesa de la IA reside en aumentar la toma de decisiones y la inteligencia de las personas, no en sustituirlas. La Ley de Inteligencia Artificial parte de la base de que, una vez que se cumplan los requisitos para la IA de riesgo medio y alto, la IA puede sustituir la toma de decisiones de las personas.

3.7.

El CESE recomienda encarecidamente que la Ley de Inteligencia Artificial contemple que determinadas decisiones sigan correspondiendo a las personas, especialmente en ámbitos donde estas decisiones tengan un elemento moral e implicaciones jurídicas o repercusión social, como en los ámbitos judicial y policial, los servicios sociales, la sanidad, la vivienda, los servicios financieros, las relaciones laborales y la enseñanza.

3.8.

Los sistemas de IA no operan en un mundo sin leyes. En la actualidad ya existen diversas normas jurídicamente vinculantes a nivel europeo, nacional e internacional que se aplican a los sistemas de IA o son pertinentes para estos. Las fuentes jurídicas incluyen, entre otras, las siguientes: el Derecho primario de la UE (los Tratados de la Unión Europea y la Carta de los Derechos Fundamentales de la Unión Europea), el Derecho derivado de la UE (como el Reglamento General de Protección de Datos, la Directiva relativa a la responsabilidad por los daños causados por productos defectuosos, el Reglamento relativo a un marco para la libre circulación de datos no personales, las Directivas contra la discriminación, la legislación en materia de protección de los consumidores y las Directivas en materia de seguridad y salud en el trabajo), los tratados de las Naciones Unidas sobre derechos humanos y los convenios del Consejo de Europa (como el Convenio Europeo de Derechos Humanos), así como numerosas leyes de los Estados miembros de la UE. Además de las normas de aplicación horizontal, existen diversas normas de carácter sectorial aplicables a determinados usos de la IA (por ejemplo, el Reglamento sobre productos sanitarios en el caso del sector sanitario). El CESE recomienda modificar el considerando (41) para reflejar debidamente este hecho.

4.   Observaciones específicas y recomendaciones — Ley de inteligencia artificial

Prácticas de IA prohibidas

4.1.

El CESE está de acuerdo en que las prácticas de IA mencionadas en el artículo 5 no suponen ningún beneficio social y deben prohibirse. Algunas formulaciones, no obstante, no están claras, con lo que determinadas prohibiciones pueden ser difíciles de interpretar y fáciles de eludir.

4.2.

Existen pruebas de técnicas subliminales que pueden, además de causar perjuicios físicos o psicológicos (la condición actualmente necesaria para que esta prohibición específica entre en vigor), derivar en otros efectos adversos personales, sociales o democráticos, como la alteración del comportamiento de voto, debido al entorno en el que se despliegan. Además, el elemento basado en la IA suele ser la decisión de a quién dirigirse con una técnica subliminal, en lugar de la propia técnica subliminal.

4.3.

A fin de condensar los aspectos que la Ley de Inteligencia Artificial pretende prohibir en el artículo 5, apartado 1, letra a), es decir, la práctica de manipular a las personas para que ejerzan conductas perjudiciales, el CESE recomienda modificar el párrafo de la siguiente forma: «[…] un sistema de IA desplegado, destinado o utilizado para distorsionar sustancialmente el comportamiento de una persona de forma que pueda menoscabar los derechos fundamentales de esa persona, otra persona o de un grupo de personas, incluidas su salud y seguridad físicas o psicológicas, o la democracia y el Estado de Derecho».

4.4.

El CESE recomienda modificar del mismo modo la práctica prohibida de aprovechar «las vulnerabilidades» contemplada en el artículo 5, apartado 1, letra b), para incluir el menoscabo de los derechos fundamentales, incluidos los perjuicios físicos o psicológicos.

4.5.

El CESE acoge favorablemente la prohibición de la «calificación social» que se establece en el artículo 5, apartado 1, letra c). El CESE recomienda que la prohibición de la calificación social también se aplique a las organizaciones privadas y las autoridades semipúblicas, no solo a las autoridades públicas. La clasificación de la fiabilidad de los ciudadanos de la UE sobre la base de su comportamiento social o de características de su personalidad no tiene cabida en la UE, independientemente del agente responsable de realizarla. En caso contrario, la UE estaría abriendo la puerta a otros ámbitos donde la calificación social estaría permitida, como el entorno laboral. Deben aclararse las condiciones de los incisos i) y ii) para establecer un límite claro entre lo que se considera «calificación social» y lo que puede considerarse una forma aceptable de evaluación para un determinado fin: esto es, el punto a partir del cual la información utilizada para la evaluación no deba ya considerarse pertinente para el objetivo de la evaluación o razonablemente relacionada con este.

4.6.

La Ley de Inteligencia Artificial pretende prohibir que los servicios policiales utilicen la identificación biométrica a distancia en tiempo real (mediante el reconocimiento facial, por ejemplo) y clasificar esta práctica como «de alto riesgo» cuando se utilice con otros fines. Queda pues permitido el reconocimiento biométrico «posterior» y «próximo». También queda permitido el reconocimiento biométrico no destinado a identificar a una persona, sino a evaluar su comportamiento a partir de sus características biométricas (microexpresiones, forma de andar, temperatura, frecuencia cardíaca, etc.). El hecho de que la prohibición se limite al ámbito policial permite que cualquier otro agente pueda utilizar la identificación biométrica —así como cualquier otra forma de reconocimiento biométrico que no tenga por objeto la identificación de una persona, incluidas todas las formas mencionadas de «reconocimiento de emociones»— para cualquier otro fin, en cualquier lugar público y privado, en particular en lugares de trabajo, tiendas, estadios, teatros, etc. Esto deja la puerta abierta a un mundo en el que seamos «evaluados emocionalmente» de manera constante para cualquier fin que considere necesario el agente que nos evalúa.

4.7.

La Ley de Inteligencia Artificial suele calificar el «reconocimiento de emociones» como de bajo riesgo, con la excepción de algunos dominios de usuario, donde se han calificado como de alto riesgo. Este tipo de reconocimiento biométrico también se conoce como «reconocimiento de afectos» y, en ocasiones, como «reconocimiento de conductas». Todos estos tipos de prácticas de IA son extremadamente invasivos, no tienen ninguna base científica sólida y pueden menoscabar sustancialmente una serie de derechos fundamentales contemplados en la Carta de los Derechos Fundamentales de la Unión Europea, como el derecho a la dignidad humana, el derecho a la integridad de la persona (que incluye la integridad mental) y el respeto de la vida privada.

4.8.

Coincidiendo en líneas generales con la petición del Supervisor Europeo de Protección de Datos y el Comité Europeo de Protección de Datos, presentada el 21 de junio de 2021, de prohibir el uso de la IA para el reconocimiento automatizado de rasgos humanos en espacios de acceso público, así como algunos otros usos de la IA que pueden dar lugar a una discriminación injusta, el CESE pide:

la prohibición del uso de la IA para el reconocimiento biométrico automatizado, en los espacios de acceso público y privado (como los rostros, la forma de andar, la voz y otras señales biométricas), excepto con fines de autenticación en circunstancias específicas (por ejemplo, para facilitar el acceso a espacios sensibles desde el punto de vista de la seguridad);

la prohibición del uso de la IA para el reconocimiento automatizado, en los espacios de acceso público y privado, de señales de comportamiento humano;

la prohibición de los sistemas de IA que utilicen la biometría para clasificar a las personas en grupos en función de su etnia, género, orientación política o sexual o cualquier otro motivo de discriminación prohibido en el artículo 21 de la Carta de los Derechos Fundamentales de la Unión Europea;

la prohibición de utilizar la IA para inferir las emociones, la conducta, la intención o los rasgos de una persona física, excepto en casos muy específicos, como determinados fines relacionados con la salud, en los que sea importante reconocer las emociones del paciente.

IA de alto riesgo:

4.9.

A la hora de decidir si una práctica o un uso de IA que supone un riesgo para la salud, la seguridad o los derechos fundamentales deben estar permitidos en condiciones restringidas, la Comisión analizó dos elementos: en primer lugar, i) si la práctica o el uso de IA puede tener beneficios sociales; y, en segundo lugar, ii) si los riesgos de un perjuicio para la salud, la seguridad y los derechos fundamentales que supone este uso pueden reducirse mediante el cumplimiento de una serie de requisitos.

4.10.

El CESE acoge favorablemente la adaptación de estos requisitos a los elementos de las Directrices éticas para una IA fiable. Sin embargo, la Ley de Inteligencia Artificial no contempla específicamente cinco requisitos importantes relativos a la IA de alto riesgo incluidos en las Directrices, a saber: i) la acción humana, ii) la privacidad, iii) la diversidad, no discriminación y equidad, iv) la explicabilidad y v) el bienestar ambiental y social. El CESE considera que esto supone una oportunidad perdida, ya que muchos de los riesgos que plantea la IA están relacionados con la privacidad, el sesgo, la exclusión, la inexplicabilidad de los resultados de las decisiones de la IA, el menoscabo de la acción humana y el medio ambiente, aspectos todos ellos que afectan a nuestros derechos fundamentales.

4.11.

El CESE recomienda sumar estos requisitos a los del capítulo 2, título III, de la Ley de Inteligencia Artificial, a fin de que dicha ley pueda proteger efectivamente nuestra salud y seguridad, así como nuestros derechos fundamentales, de los efectos adversos del uso de la IA por parte de las autoridades públicas y las entidades privadas.

4.12.

El CESE valora positivamente el «sistema entrelazado» entre la Ley de Inteligencia Artificial y la legislación de armonización de la Unión. Recomienda que se amplíe el ámbito de aplicación de la Ley de Inteligencia Artificial y los requisitos para la IA de alto riesgo, más allá de los «componentes de seguridad de la IA» o la situación en que el propio sistema de IA sea un producto cubierto por la legislación de armonización de la Unión enumerado en el anexo II. Esto se debe a que la IA puede suponer un riesgo no solo cuando se emplea como un componente de seguridad de estos productos; además, el propio sistema de IA no es siempre un producto. Por ejemplo, cuando se utiliza en el marco de un instrumento de diagnóstico o pronóstico en el ámbito médico, o cuando un termostato basado en la IA regula un calentador.

4.13.

No obstante, el CESE advierte que el enfoque «basado en listas» para la IA de alto riesgo escogido en el anexo III puede llevar a la legitimación, normalización e integración de un gran número de prácticas de IA que todavía reciben muchas críticas y cuyos beneficios sociales son cuestionables o inexistentes.

4.14.

Además, los riesgos de menoscabo de la salud, la seguridad y los derechos fundamentales no se reducen siempre necesariamente a través del cumplimiento de los cinco requisitos establecidos para la IA de alto riesgo, en particular con respecto de los derechos fundamentales menos mencionados que podrían verse afectados por la IA, como el derecho a la dignidad humana, la presunción de inocencia, el derecho a unas condiciones de trabajo justas y equitativas, la libertad de asociación y de reunión y el derecho de huelga, entre otros.

4.15.

El CESE recomienda encarecidamente añadir la gestión y la operación de la infraestructura de telecomunicaciones e internet al punto 2 del anexo III. El CESE también recomienda ampliar el ámbito de aplicación de este punto más allá de los elementos de seguridad de la IA.

4.16.

Los sistemas de IA para determinar el acceso a la educación y evaluar a los estudiantes plantean una serie de riesgos de menoscabo de la salud, la seguridad y los derechos fundamentales de los estudiantes. Las herramientas de supervisión en línea, por ejemplo, destinadas supuestamente a señalar «comportamientos sospechosos» e «indicios de fraude» durante los exámenes en línea mediante el uso de todo tipo de indicadores biométricos y de control del comportamiento, son verdaderamente invasivas y no existen pruebas científicas al respecto.

4.17.

El uso de sistemas de IA para el control, el seguimiento y la evaluación de trabajadores plantea graves preocupaciones con respecto de sus derechos fundamentales a unas condiciones de trabajo equitativas y justas, así como a la información y consulta y a no ser despedidos sin causa justificada. La inclusión de estos sistemas de IA en la lista de alto riesgo puede generar conflictos con la legislación laboral nacional y los convenios colectivos en materia de despido procedente e improcedente, condiciones de trabajo saludables y seguras e información a los trabajadores. El CESE pide que se garantice la plena participación e información de los trabajadores y los interlocutores sociales en el proceso de toma de decisiones sobre el uso de la IA en el lugar de trabajo, así como sobre su desarrollo, adquisición y despliegue.

4.18.

El requisito de «vigilancia humana» es especialmente relevante en las relaciones laborales, puesto que un trabajador o un grupo de trabajadores se encargarán de ella. El CESE subraya que estos trabajadores deben recibir formación sobre cómo llevar a cabo esta tarea. Además, dado que se espera que estos trabajadores puedan ignorar el resultado del sistema de IA o incluso no utilizarlo, deben establecerse medidas para evitar el miedo a represalias (como la degradación o el despido) en caso de que se tome esa decisión.

4.19.

El uso de sistemas de IA en relación con el acceso y el disfrute de servicios públicos es más amplio que el uso de sistemas de IA respecto del acceso y el disfrute de servicios privados esenciales; en el caso de los últimos, solo la calificación de la capacidad crediticia por la IA se considera de alto riesgo. El CESE recomienda ampliar el ámbito de aplicación del punto 5, letra b), del anexo III a todos los sistemas de IA destinados a la evaluación de la admisibilidad de los servicios privados esenciales.

4.20.

La IA empleada por los servicios policiales y en la gestión de la migración, asilo y control de fronteras para realizar evaluaciones del riesgo individuales (en materia penal o de seguridad) supone un riesgo de menoscabo de la presunción de inocencia, los derechos de la defensa y el derecho de asilo de la Carta de Derechos Fundamentales de la Unión Europea. En general, los sistemas de IA suelen buscar simplemente correlaciones basadas en características de otros «casos». En estas situaciones, las sospechas no se basan en una sospecha real de un delito o una falta de la persona en cuestión, sino simplemente en características que esa persona comparte con delincuentes condenados (como la dirección, los ingresos, la nacionalidad, las deudas, el empleo, el comportamiento, tanto propio como de amigos y familiares, etc.).

4.21.

El uso de la IA en los procesos democráticos y de administración de justicia es especialmente sensible, y debe abordarse con más matices y un mayor escrutinio que en la actualidad. La mera puesta a disposición de sistemas para su utilización por la autoridad judicial en la investigación y la interpretación de los hechos y de la ley, y en la aplicación de la ley a una serie concreta de hechos, no tiene en cuenta que las resoluciones judiciales van más allá de encontrar patrones en datos históricos (que es, en resumen, lo que hacen los sistemas de IA actuales). El texto también asume que estos tipos de IA solo servirán de apoyo en el ámbito judicial, con lo que la toma de decisiones totalmente automatizada se excluye del ámbito de aplicación. El CESE también lamenta que no se mencionen los sistemas o los usos de la IA en el marco de los procesos democráticos, como las elecciones.

4.22.

El CESE recomienda que se incluya una disposición que contemple la situación en la que bien sea obvio o bien quede claro en la evaluación de conformidad previa que los seis requisitos no reducirán de forma suficiente el riesgo de menoscabo de la salud, la seguridad y los derechos humanos (por ejemplo, mediante la modificación del artículo 16, letra g), de la Ley de Inteligencia Artificial).

Gobernanza y fuerza ejecutiva

4.23.

El CESE valora positivamente la estructura de gobernanza establecida por la Ley de Inteligencia Artificial. Recomienda al Comité de Inteligencia Artificial que organice intercambios de opiniones obligatorios y periódicos con la sociedad en sentido amplio, incluidos los interlocutores sociales y las ONG.

4.24.

El CESE recomienda encarecidamente ampliar el ámbito de aplicación de la Ley de Inteligencia Artificial para incluir los «sistemas heredados de IA», es decir, los sistemas que ya están en uso o se han desplegado previamente a la entrada en vigor de la Ley de Inteligencia Artificial, a fin de evitar que los responsables aceleren el despliegue sistemas de IA de riesgo medio y alto prohibidos para evitar los requisitos de cumplimiento. Por otra parte, el CESE recomienda firmemente que no se excluya del ámbito de aplicación de la Ley de inteligencia artificial a la IA que forme parte de los sistemas informáticos a gran escala en el espacio de libertad, seguridad y justicia mencionados en el anexo IX.

4.25.

La complejidad de los requisitos y las actividades de rendición de cuentas, además de la autoevaluación, corren el riesgo de reducir este proceso a listas de comprobación en las que un simple «sí» o «no» puede ser suficiente para cumplir los requisitos. El CESE recomienda que las evaluaciones de terceros sean obligatorias en todos los casos de IA de alto riesgo.

4.26.

El CESE recomienda poner a disposición de las microorganizaciones y las pequeñas organizaciones, así como de las organizaciones de la sociedad civil, medidas de apoyo (financieras) adecuadas y herramientas sencillas y accesibles que les permitan ser capaces de entender el objetivo y el significado de la Ley de Inteligencia Artificial, así como de cumplir sus requisitos. Estas medidas deben ir más allá del apoyo a los centros de innovación digital y facilitar el acceso a conocimientos especiales de alto nivel en relación con la Ley de Inteligencia Artificial, sus requisitos, sus obligaciones y, en particular, el razonamiento subyacente a los mismos.

4.27.

El CESE recomienda la inclusión de un mecanismo de denuncia y recurso para las organizaciones y los ciudadanos que se han visto perjudicados por un sistema, una práctica o una utilización de IA dentro del ámbito de aplicación de la Ley de Inteligencia Artificial.

Bruselas, 22 de septiembre de 2021.

La Presidenta del Comité Económico y Social Europeo

Christa SCHWENG


Top