EUR-Lex Access to European Union law

Back to EUR-Lex homepage

This document is an excerpt from the EUR-Lex website

Document 52021IP0009

Resolución del Parlamento Europeo, de 20 de enero de 2021, sobre inteligencia artificial: cuestiones de interpretación y de aplicación del Derecho internacional en la medida en que la UE se ve afectada en los ámbitos de los usos civil y militar, así como de la autoridad del Estado fuera del ámbito de la justicia penal (2020/2013(INI))

DO C 456 de 10.11.2021, p. 34–46 (BG, ES, CS, DA, DE, ET, EL, EN, FR, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV)

10.11.2021   

ES

Diario Oficial de la Unión Europea

C 456/34


P9_TA(2021)0009

Inteligencia artificial: cuestiones de interpretación y de aplicación del Derecho internacional

Resolución del Parlamento Europeo, de 20 de enero de 2021, sobre inteligencia artificial: cuestiones de interpretación y de aplicación del Derecho internacional en la medida en que la UE se ve afectada en los ámbitos de los usos civil y militar, así como de la autoridad del Estado fuera del ámbito de la justicia penal (2020/2013(INI))

(2021/C 456/04)

El Parlamento Europeo,

Visto el preámbulo del Tratado de Funcionamiento de la Unión Europea y de sus artículos 2, 3, 10, 19, 20, 21, 114, 167, 218, 225 y 227,

Visto el derecho de petición consagrado en los artículos 20 y 227 del Tratado de Funcionamiento de la Unión Europea,

Vista la Carta de los Derechos Fundamentales de la Unión Europea,

Vista la Directiva 2000/43/CE del Consejo, de 29 de junio de 2000, relativa a la aplicación del principio de igualdad de trato de las personas independientemente de su origen racial o étnico (1) (Directiva sobre igualdad racial),

Vista la Directiva 2000/78/CE del Consejo, de 27 de noviembre de 2000, relativa al establecimiento de un marco general para la igualdad de trato en el empleo y la ocupación (2) (Directiva sobre la igualdad de trato en el empleo),

Vistos el Reglamento (UE) 2016/679 del Parlamento Europeo y del Consejo, de 27 de abril de 2016, relativo a la protección de las personas físicas en lo que respecta al tratamiento de datos personales y a la libre circulación de estos datos y por el que se deroga la Directiva 95/46/CE (3) (Reglamento general de protección de datos) y la Directiva (UE) 2016/680 del Parlamento Europeo y del Consejo, de 27 de abril de 2016, relativa a la protección de las personas físicas en lo que respecta al tratamiento de datos personales por parte de las autoridades competentes para fines de prevención, investigación, detección o enjuiciamiento de infracciones penales o de ejecución de sanciones penales, y a la libre circulación de dichos datos y por la que se deroga la Decisión Marco 2008/977/JAI del Consejo (4),

Visto el Reglamento (UE) 2018/1488 del Consejo, de 28 de septiembre de 2018, por el que se crea la Empresa Común de Informática de Alto Rendimiento Europea (5),

Vista la propuesta de Reglamento del Parlamento Europeo y del Consejo, de 6 de junio de 2018, por el que se establece el programa Europa Digital para el período 2021-2027 (COM(2018)0434),

Vista su Resolución, de 16 de febrero de 2017, con recomendaciones destinadas a la Comisión sobre normas de Derecho civil sobre robótica (6),

Vista su Resolución, de 1 de junio de 2017, sobre la digitalización de la industria europea (7),

Vista su Resolución, de 12 de septiembre de 2018, sobre los sistemas armamentísticos autónomos (8),

Vista su Resolución, de 11 de septiembre de 2018, sobre la igualdad lingüística en la era digital (9),

Vista su Resolución, de 12 de febrero de 2019, sobre una política industrial global europea en materia de inteligencia artificial y robótica (10),

Vista la Comunicación de la Comisión al Parlamento Europeo, al Consejo Europeo, al Consejo, al Comité Económico y Social Europeo y al Comité de las Regiones, de 11 de diciembre de 2019, titulada «El Pacto Verde Europeo» (COM(2019)0640),

Visto el Libro Blanco de la Comisión, de 19 de febrero de 2020, sobre la inteligencia artificial — un enfoque europeo orientado a la excelencia y la confianza (COM(2020)0065),

Vista la Comunicación de la Comisión al Parlamento Europeo, al Consejo, al Comité Económico y Social Europeo y al Comité de las Regiones, de 19 de febrero de 2020, titulada «Una Estrategia Europea de Datos» (COM(2020)0066),

Vista la Comunicación de la Comisión al Parlamento Europeo, al Consejo, al Comité Económico y Social Europeo y al Comité de las Regiones, de 19 de febrero de 2020, titulada «Configurar el futuro digital de Europa» (COM(2020)0067),

Visto el informe, de 8 de abril de 2019, del Grupo de expertos de alto nivel sobre inteligencia artificial creado por la Comisión en junio de 2018, titulado «Directrices éticas para una IA fiable»,

Vistos el Convenio Marco para la Protección de las Minorías Nacionales, el Protocolo n.o 12 del Convenio para la protección de los derechos humanos y de las libertades fundamentales y la Carta Europea de las Lenguas Regionales o Minoritarias, del Consejo de Europa,

Vista la «Carta ética europea sobre el uso de la inteligencia artificial en los sistemas judiciales y su entorno» adoptada por el Grupo de Trabajo sobre la Calidad de la Justicia (CEPEJ-GT-QUAL) del Consejo de Europa en diciembre de 2018,

Vista la Recomendación del Consejo de la OCDE sobre la inteligencia artificial, aprobada el 22 de mayo de 2019,

Visto el artículo 54 de su Reglamento interno,

Vistas las opiniones de la Comisión de Asuntos Exteriores, de la Comisión de Mercado Interior y Protección del Consumidor, de la Comisión de Transportes y Turismo y de la Comisión de Libertades Civiles, Justicia y Asuntos de Interior,

Visto el informe de la Comisión de Asuntos Jurídicos (A9-0001/2021),

Introducción

A.

Considerando que la inteligencia artificial (IA), la robótica y las tecnologías relacionadas se están desarrollando con gran rapidez y pueden afectar directamente a todos los aspectos de nuestras sociedades, incluidos los valores y principios sociales y económicos fundamentales;

B.

Considerando que la IA está causando una revolución en la doctrina y el material militar mediante un profundo cambio en la forma de operar de los ejércitos debido, principalmente, a la integración y el uso de nuevas tecnologías y capacidades autónomas;

C.

Considerando que los seres humanos son quienes desarrollan y diseñan la denominada «inteligencia artificial», la robótica y las tecnologías relacionadas, y que sus elecciones determinan el potencial de dicha tecnología para beneficiar a la sociedad;

D.

Considerando que un marco común de la Unión debe abarcar el desarrollo, el despliegue y el uso de la IA, la robótica y las tecnologías relacionadas, y debe garantizar el respeto de la dignidad humana y los derechos humanos, consagrados en la Carta de los Derechos Fundamentales de la Unión Europea;

E.

Considerando que la Unión y sus Estados miembros tienen una responsabilidad particular a la hora de velar por que la IA, la robótica y las tecnologías relacionadas –pues pueden tener un uso transfronterizo– estén centradas en el ser humano, es decir, que se conciban básicamente para ser utilizadas al servicio de la humanidad y el bien común, a fin de contribuir al bienestar y el interés general de sus ciudadanos; que la Unión debe ayudar a los Estados miembros a lograr este objetivo, en particular a aquellos que han empezado a plantearse la posibilidad de elaborar normas jurídicas o introducir cambios legislativos en este ámbito;

F.

Considerando que los ciudadanos europeos podrían beneficiarse de un enfoque regulador apropiado, eficaz, transparente y coherente a nivel de la Unión que defina unas condiciones suficientemente claras para que las empresas desarrollen aplicaciones y planifiquen sus modelos de negocio, garantizando a la vez que la Unión y sus Estados miembros mantengan el control sobre la normativa que se establezca, de modo que no se vean obligados a adoptar o aceptar normas establecidas por otros;

G.

Considerando que la orientación ética, como los principios adoptados por el Grupo de expertos de alto nivel sobre inteligencia artificial, constituye un buen punto de partida, pero no basta para garantizar que las empresas actúen de manera justa y aseguren la protección eficaz de las personas;

H.

Considerando que esta responsabilidad particular implica la necesidad de analizar cuestiones de interpretación y de aplicación del Derecho internacional relacionadas con la participación activa de la Unión en negociaciones internacionales, en la medida en que la Unión se ve afectada por los usos civil y militar de este tipo de IA, robótica y tecnologías relacionadas, y que las cuestiones relativas a la autoridad estatal sobre dichas tecnologías quedan fuera del ámbito de aplicación de la justicia penal;

I.

Considerando que es esencial proporcionar un marco jurídico adecuado y completo que atienda a los aspectos éticos de estas tecnologías, así como a la responsabilidad, la transparencia y la rendición de cuentas (en particular para la IA, la robótica y las tecnologías relacionadas consideradas de alto riesgo); que tal marco debe reflejar que los valores humanistas intrínsecamente europeos y universales son aplicables a toda la cadena de valor en el desarrollo, la implementación y los usos de la IA; que tal marco ético debe aplicarse al desarrollo (incluida la investigación e innovación), el despliegue y la utilización de la IA, respetando plenamente el Derecho de la Unión y los valores establecidos en la Carta de los Derechos Fundamentales de la Unión Europea;

J.

Considerando que dicho análisis tiene como objetivo determinar la medida en que las reglas del Derecho internacional, tanto público como privado, se adecúan a estas tecnologías, así como poner de relieve los desafíos y riesgos que estas últimas representan para la autoridad estatal, a fin de que se puedan gestionar de manera adecuada y proporcionada;

K.

Considerando que la Comisión Europea no contempla los aspectos militares del uso de la inteligencia artificial en su Libro Blanco;

L.

Considerando que un enfoque europeo armonizado de estos problemas exige la adopción de una definición común de «IA» y la garantía de que se respeten los valores fundamentales de la Unión, los principios de la Carta de los Derechos Fundamentales y la legislación internacional en materia de derechos humanos;

M.

Considerando que la IA brinda oportunidades sin precedentes para mejorar el rendimiento en el sector del transporte al abordar los retos que plantean una creciente demanda de transporte y las preocupaciones relativas al medio ambiente y la seguridad al tiempo que aumenta la inteligencia, la eficiencia y la conveniencia de todos los modos de transporte;

N.

Considerando que resulta indispensable abordar las cuestiones relativas a la IA en el sector de la defensa a escala de la Unión para reforzar las capacidades europeas en dicho sector;

Definición de inteligencia artificial

1.

Considera que es necesario adoptar un marco jurídico europeo común con definiciones armonizadas y principios éticos comunes, también para el uso de la IA con fines militares; pide, por tanto, a la Comisión que adopte las definiciones siguientes:

«sistema de IA»: todo sistema basado en programas informáticos o incorporado en dispositivos físicos que muestra un comportamiento que simula la inteligencia, entre otras cosas, mediante la recopilación y el tratamiento de datos, el análisis y la interpretación de su entorno y la adopción de medidas, con cierto grado de autonomía, para lograr objetivos específicos;

«autónomo»: todo sistema de IA que funciona interpretando determinados datos de entrada y utilizando un conjunto de instrucciones predeterminadas, sin limitarse a ellas, a pesar de que el comportamiento del sistema esté limitado y orientado a cumplir el objetivo que se le haya asignado y otras decisiones pertinentes de diseño tomadas por su desarrollador;

2.

Destaca que las políticas de seguridad y defensa de la Unión Europea y de sus Estados miembros se rigen por los principios consagrados en la Carta de los Derechos Fundamentales de la Unión Europea y en la Carta de las Naciones Unidas (la cual pide a todos los Estados que se abstengan de recurrir a la amenaza o al uso de la fuerza en sus relaciones mutuas), así como por el Derecho internacional, por los principios de los derechos humanos y el respeto de la dignidad humana y por un entendimiento común de los valores universales y de los derechos inviolables e inalienables de la persona, la libertad, la democracia, la igualdad y el Estado de Derecho; recalca que todas las actividades relacionadas con la defensa dentro del marco de la Unión deben respetar estos valores universales al tiempo que fomentan la paz, la estabilidad, la seguridad y el progreso en Europa y en el mundo;

El Derecho internacional público y los usos militares de la inteligencia artificial

3.

Considera que la IA utilizada en un contexto militar y civil debe estar sujeta a un control humano apropiado, de modo que un ser humano tenga en todo momento los medios para corregir su curso, detenerla o desactivarla en caso de comportamiento imprevisto, intervención accidental, ciberataque o interferencia de terceros con tecnología basada en la IA, o cuando terceros adquieran dicha tecnología;

4.

Considera que el respeto del Derecho internacional público, en particular del Derecho humanitario, que se aplica inequívocamente a todos los sistemas de armas y sus operadores, es un requisito fundamental que los Estados miembros deben cumplir, especialmente al proteger a la población civil o adoptar medidas de precaución en caso de ataque, por ejemplo, militar o cibernético;

5.

Destaca que la IA y las tecnologías relacionadas también pueden desempeñar un papel en la guerra irregular o no convencional; propone que la investigación, el desarrollo y el uso de la IA en esos casos estén sujetos a las mismas condiciones que las establecidas para su uso en los conflictos convencionales;

6.

Subraya que el uso de la IA brinda la oportunidad de reforzar la seguridad de la Unión y de sus ciudadanos y que es esencial que la Unión adopte un enfoque integrado en los futuros debates internacionales sobre este tema;

7.

Pide a la comunidad de investigadores en el ámbito de la IA que integre este principio en todos los sistemas basados en la IA mencionados anteriormente destinados a un uso militar; considera que ninguna autoridad puede establecer una excepción a tales principios o certificar dichos sistemas;

8.

Reitera que la toma de decisiones autónoma no debe eximir a los seres humanos de su responsabilidad y que, siempre, las personas deben ser responsables en última instancia de los procesos de toma de decisiones de modo que pueda identificarse al ser humano responsable de una decisión;

9.

Hace hincapié en que, cuando empleen sistemas basados en la IA en un contexto militar, los Estados miembros, las partes en un conflicto y los particulares deben cumplir en todo momento sus obligaciones con arreglo al Derecho internacional aplicable y asumir la responsabilidad de las acciones resultantes de la utilización de dichos sistemas; subraya que, en cualquier circunstancia, las acciones y efectos previstos, accidentales o indeseables de los sistemas basados en la IA deben considerarse responsabilidad de los Estados miembros, las partes en un conflicto y los particulares;

10.

Acoge favorablemente la posibilidad de utilizar los sistemas de inteligencia artificial para la formación y los ejercicios, pues no debe subestimarse su potencial, especialmente teniendo en cuenta que la Unión realiza ejercicios de carácter doble, a saber, civil y militar;

11.

Remarca que, durante las fases de diseño, desarrollo, ensayo, despliegue y uso de sistemas basados en la IA, deben tenerse debidamente en cuenta los riesgos potenciales en todo momento, en particular en lo que respecta a víctimas y heridos accidentales entre la población civil, pérdidas accidentales de vidas humanas y daños a infraestructuras civiles, así como los riesgos relacionados con intervenciones no intencionadas, la manipulación, la proliferación, los ciberataques, la interferencia de terceros con tecnología autónoma basada en la IA o la adquisición de dicha tecnología por parte de terceros;

12.

Recuerda que, con arreglo al dictamen consultivo de la Corte Internacional de Justicia de 8 de julio de 1996, no se puede invocar el principio de originalidad para apoyar ninguna excepción al cumplimiento de las normas actuales del Derecho internacional humanitario;

13.

Considera que, además de apoyar las operaciones, la IA también beneficiará al personal de servicio de las fuerzas armadas mediante el tratamiento masivo de los datos relativos a su salud y la expansión del alcance del seguimiento sanitario, identificará los factores de riesgo relacionados con su entorno y sus condiciones de trabajo y propondrá salvaguardias adecuadas para limitar los perjuicios a su salud;

14.

Reitera que los esfuerzos reguladores deben estar respaldados por sistemas de certificación y vigilancia apropiados, así como por mecanismos claros de auditoría, explicabilidad, rendición de cuentas y trazabilidad, de modo que el marco normativo no se quede anticuado debido a los avances tecnológicos;

15.

Subraya la importancia, en un mundo hiperconectado, de que la Unión contribuya a la creación de un marco jurídico internacional para el uso de la inteligencia artificial; insta a la Unión a que asuma el liderazgo y, junto con las Naciones Unidas y la comunidad internacional, un papel activo en la promoción de este marco mundial que rige el uso de la IA con fines militares y de otro tipo, garantizando que este uso se mantenga dentro de los estrictos límites establecidos por el Derecho internacional y el Derecho internacional humanitario, en particular los Convenios de Ginebra de 12 de agosto de 1949; subraya que este marco nunca debe infringir ni permitir violaciones de los dictados de la conciencia pública y la humanidad, tal como se recoge en la cláusula Martens, y debe estar en consonancia con las normas de seguridad y los requisitos de la protección de los consumidores; insta a la Unión y a sus Estados miembros a que definan sistemas sólidos de vigilancia y evaluación para el desarrollo de tecnologías de IA, en particular las utilizadas con fines militares en Estados autoritarios;

16.

Destaca que la robótica no solo permitirá mantener a distancia al personal militar, sino que también proporcionará una mejor autoprotección, como por ejemplo en las operaciones en entornos contaminados, la lucha contra incendios, el desminado en tierra o en el mar y la defensa contra los enjambres de drones;

17.

Subraya que en el desarrollo, el despliegue, el uso y la gestión de la IA han de respetarse los derechos fundamentales, valores y libertades recogidos en los Tratados de la Unión, y pide a los Estados miembros que no desplieguen sistemas de IA de alto riesgo que constituyan una amenaza para los derechos fundamentales; observa la publicación por parte de la Comisión del Libro Blanco sobre la inteligencia artificial, y anima a que se investiguen más a fondo los riesgos que para los derechos fundamentales puede acarrear el uso de la IA por parte de las autoridades estatales y de las instituciones, órganos y organismos de la Unión Europea;

18.

Pide a la Comisión que facilite las investigaciones y la conversación relativas a las oportunidades de uso de la IA en el socorro en caso de catástrofe, la prevención de crisis y el mantenimiento de la paz;

19.

Acoge favorablemente la creación de un Grupo de Expertos Gubernamentales de las Naciones Unidas sobre la promoción de un comportamiento responsable de los Estados en el ciberespacio en el contexto de la seguridad internacional y pide a la Unión que participe plenamente en su trabajo;

20.

Pide al alto representante de la Unión para Asuntos Exteriores y Política de Seguridad y vicepresidente de la Comisión (AR/VP) que allane el camino hacia unas negociaciones mundiales con el fin de establecer un régimen de control de armas de IA y de actualizar todos los instrumentos vigentes previstos en los Tratados dedicados al control de armas, el desarme y la no proliferación para que tengan en cuenta los sistemas basados en la IA que se utilicen en un contexto bélico; pide que la Posición Común del Consejo por la que se definen las normas comunes que rigen el control de las exportaciones de tecnología y equipos militares tenga plenamente en cuenta y abarque los sistemas de armas basados en la IA;

21.

Reitera que tales normas deben respetar siempre los principios, recordados por la Convención de Roma de 17 de julio de 1998, de prohibición de los crímenes de genocidio, los crímenes de lesa humanidad y los crímenes de guerra;

22.

Señala los evidentes riesgos que entrañan las decisiones adoptadas por seres humanos si están basadas únicamente en datos, perfiles y recomendaciones generados por máquinas; observa que el diseño general de los sistemas de IA debe incluir asimismo directrices respecto a la supervisión y vigilancia humanas; pide que se impongan la obligación de transparencia y explicabilidad de las aplicaciones de IA y la necesidad de intervención humana, así como otras medidas, como auditorías independientes y pruebas de resistencia específicas para facilitar y obligar al cumplimiento; hace hincapié en que tales auditorías independientes deben realizarse periódicamente por parte de una autoridad independiente que supervise las aplicaciones de IA de alto riesgo empleadas por el Ejército o las autoridades estatales;

23.

Subraya la importancia de comprobar la manera en que las tecnologías de IA de alto riesgo alcanzan decisiones; recuerda que deben respetarse los principios de no discriminación y proporcionalidad y que es necesario aclarar las cuestiones de causalidad, imputabilidad y responsabilidad, así como de transparencia, rendición de cuentas y explicabilidad, para determinar si, o en qué medida, el Estado como agente en el Derecho internacional público, pero también en el ejercicio de su propia autoridad, puede actuar con la ayuda de sistemas basados en la IA relativamente autónomos, sin incumplir obligaciones que emanen del Derecho internacional, como la tutela judicial efectiva;

24.

Insiste en la importancia de invertir en capacidades humanas, en particular en las digitales, a fin de adaptarse a los avances científicos que conlleven soluciones impulsadas por la IA, para las personas que ejercen profesiones reguladas, tales como las actividades relacionadas con el ejercicio de los poderes de la autoridad estatal, como la administración de justicia; pide a los Estados miembros y a la Comisión que tengan esto en cuenta debidamente al aplicar la Directiva 2005/36/CE (11);

25.

Insiste en que los sistemas de IA deben cumplir siempre los principios de responsabilidad, equidad, gobernabilidad, precaución, rendición de cuentas, imputabilidad, previsibilidad, trazabilidad, seguridad de funcionamiento, fiabilidad, transparencia, explicabilidad y proporcionalidad; de capacidad para detectar posibles cambios en las circunstancias y el entorno operativo, y de distinción entre combatientes y no combatientes; insiste en que el principio de proporcionalidad subordina la legalidad de una acción militar a que haya un equilibrio entre el objetivo que se persigue y los medios empleados, y en que la proporcionalidad la debe evaluar siempre un ser humano;

26.

Hace hincapié en que el empleo de los sistemas basados en la IA en los ámbitos de la seguridad y la defensa exige un conocimiento exhaustivo de la situación por parte del operador humano, la previsibilidad, fiabilidad y resiliencia del sistema basado en la IA, así como la capacidad del operador humano para detectar posibles cambios en las circunstancias y el entorno operativo y de intervenir o poner fin a un ataque, a fin de garantizar que los principios del Derecho internacional humanitario, en particular los de distinción, proporcionalidad y precaución en los ataques, se apliquen plenamente en toda la cadena de mando y control; subraya que los sistemas basados en la IA deben permitir que las personas al mando ejerzan un control apropiado, asuman plenamente su responsabilidad y respondan de todos sus usos; pide a la Comisión que fomente el diálogo, una cooperación más estrecha y sinergias entre los Estados miembros, los investigadores, el entorno académico, los agentes de la sociedad civil y el sector privado (en particular, las empresas líderes) y el Ejército, a fin de garantizar el carácter inclusivo de los procesos de elaboración de políticas relativas a la normativa en materia de IA relacionada con la defensa;

27.

Considerando que el Parlamento ha pedido la elaboración y adopción urgentes de una posición común sobre los sistemas armamentísticos autónomos letales (SAAL) para prevenir el desarrollo, la producción y la utilización de SAAL capaces de realizar ataques sin un control humano significativo, así como el inicio de negociaciones eficaces para su prohibición; recuerda, a este respecto, su Resolución, de 12 de septiembre de 2018, sobre los sistemas armamentísticos autónomos; recuerda que por «sistemas armamentísticos autónomos letales» (SAAL) se entienden sistemas de armas sin un control humano significativo con respecto a las funciones críticas de selección y ataque de objetivos individuales; hace hincapié en que la decisión de seleccionar un objetivo e iniciar una acción letal mediante sistemas de armas con cierto grado de autonomía siempre debe ser tomada por operadores humanos que ejerzan un control y una supervisión apropiados y el juicio necesario, en consonancia con los principios de proporcionalidad y necesidad; destaca que no cabe permitir en ningún caso que los sistemas basados en la IA sustituyan a la capacidad decisoria humana en este ámbito;

28.

Señala, asimismo, que la clasificación de los sistemas armamentísticos autónomos como categoría específica de la IA en el ámbito militar debe ser objeto de un debate y un acuerdo a escala internacional, concretamente en el marco de la Convención de las Naciones Unidas sobre ciertas armas convencionales; llama la atención sobre el debate que se está celebrando a escala internacional sobre los SAAL con el fin de regular las tecnologías militares emergentes, que no se ha saldado hasta la fecha con un acuerdo; señala que hasta muy recientemente la Unión no había accedido a debatir sobre los efectos de la IA y la digitalización en el sector de la defensa; considera que la Unión puede desempeñar un papel fundamental de ayuda a que los Estados miembros armonicen su enfoque con respecto a la IA en el ámbito militar, a fin de sostener debates a escala internacional;

29.

Insiste en la necesidad de adoptar una estrategia a escala de la Unión contra los SAAL y de prohibir los denominados «killer robots» (robots asesinos);

30.

Hace hincapié en que la IA empleada en un contexto militar debe cumplir un conjunto mínimo de requisitos, a saber: ser capaz de distinguir entre combatientes y no combatientes en el campo de batalla, reconocer cuándo un combatiente se rinde o está fuera de combate, no tener efectos indiscriminados, no causar sufrimiento innecesario a las personas, no estar sesgada ni estar formada a partir de datos intencionadamente incompletos, y cumplir los principios del Derecho internacional humanitario, de proporcionalidad en el uso de la fuerza y de precaución antes de la intervención;

31.

Considera que el empleo de sistemas armamentísticos autónomos letales suscita preguntas de carácter ético y jurídico fundamentales sobre la capacidad de control que los seres humanos pueden ejercer sobre dichos sistemas, e impone que la tecnología basada en la IA no pueda tomar decisiones autónomas que conciernan a los principios jurídicos de distinción, proporcionalidad y precaución;

32.

Pide medidas transparentes de reducción de riesgo a escala internacional en lo que atañe al desarrollo y uso de la IA en el ámbito militar, en particular en relación con los principios de integridad territorial, no intervención y uso de la fuerza; hace hincapié en la importancia de tener en cuenta los aspectos militares a la hora de encarar las cuestiones jurídicas y éticas en el marco europeo en materia de IA; recuerda su posición en cuanto a la prohibición del desarrollo, la producción y el uso de SAAL; lamenta que no existan convenios a escala mundial que traten expresamente del uso de estas armas;

33.

Reconoce que la dinámica de la carrera armamentística moderna entre grandes Estados nación militares por el desarrollo de SAAL está superando al progreso en cuanto a las normas comunes y los marcos jurídicos y a la aplicación y el cumplimiento efectivos y universales de los mismos, puesto que la información sobre el desarrollo y el despliegue de estos sistemas está clasificada y los Estados nación tienen un interés inherente en crear las capacidades ofensivas más rápidas y eficaces, independientemente de los marcos o principios jurídicos actuales o potenciales futuros;

34.

Considera que los SAAL deben emplearse únicamente como último recurso y solo son lícitos si están sujetos a un estricto control humano, esto es, si una persona puede asumir el mando en cualquier momento, pues una intervención y una supervisión humanas apropiadas son esenciales en el proceso de toma de decisiones letales y los seres humanos siempre deben ser los responsables a la hora de decidir entre la vida y la muerte; opina que los sistemas sin control humano («human off the loop») ni supervisión humana de ningún tipo deben prohibirse sin excepciones y en cualquier circunstancia;

35.

Pide al AR/VP, a los Estados miembros y al Consejo Europeo que elaboren y adopten con carácter urgente una posición común sobre sistemas armamentísticos autónomos que garantice un control humano apropiado de las funciones críticas de los sistemas de armas, incluso durante su despliegue, que hablen en los foros pertinentes con una sola voz y que actúen en consecuencia; pide, en este contexto, al AR/VP, a los Estados miembros y al Consejo que intercambien las mejores prácticas y recaben las aportaciones de los expertos, los académicos y la sociedad civil, como se refleja en la posición, de 12 de septiembre de 2018, sobre los sistemas armamentísticos autónomos, en la que se afirma que los ataques deben llevarse a cabo siempre con una intervención humana considerable;

36.

Alienta a los Estados a que valoren si los dispositivos militares autónomos han contribuido a su seguridad nacional y de qué manera, y qué podría ganar esta con los sistemas de armas basados en IA, en particular en lo que se refiere al potencial de estas tecnologías para apoyar y mejorar la toma de decisiones humana de conformidad con el Derecho internacional humanitario y sus principios; recuerda que cualquier SAAL o arma con un alto grado de autonomía puede fallar a causa de algún código escrito incorrectamente o de un ciberataque perpetrado por un Estado enemigo o un agente no estatal;

37.

Insiste en que los SAAL únicamente se utilicen en casos especificados claramente y conforme a procedimientos de autorización establecidos de antemano y de forma detallada en documentos a los que el Estado en cuestión garantice el acceso para el público en general o, al menos, para su Parlamento nacional (tanto si dicho Estado es miembro de la Organización del Tratado del Atlántico Norte como si no);

38.

Considera que los SAAL deben cumplir las disposiciones de la Convención de 10 de octubre de 1980 sobre ciertas armas convencionales, en particular la prohibición de armas consideradas «excesivamente nocivas»;

39.

Propone, a fin de evitar su propagación incontrolada, que los SAAL se incluyan en la lista de armas sujetas a las disposiciones del Tratado sobre el Comercio de Armas de 2 de abril de 2013, que figura en el artículo 2 del mismo;

40.

Exige, para evitar cualquier confusión entre una persona y un robot, que se prohíba la antropomorfización de los SAAL;

41.

Acoge favorablemente el acuerdo del Consejo y del Parlamento de excluir de las acciones financiadas en el marco del Fondo Europeo de Defensa (FED) las armas autónomas letales «que no permitan un control humano significativo sobre las decisiones de selección e intervención cuando lleven a cabo ataques»; recuerda su posición en el sentido de que el uso, el desarrollo o la producción de SAAL sin un control humano significativo no puedan recibir financiación con cargo al FED;

42.

Pide a la Comisión que apoye la investigación, el desarrollo, el despliegue y la utilización de la IA dirigida a preservar la paz y prevenir conflictos;

43.

Observa que el ecosistema mundial de la IA está dominado por los gigantes digitales estadounidenses y chinos, que están desarrollando su capacidad nacional y adquiriendo numerosas empresas prometedoras; sostiene firmemente, por consiguiente, que, para evitar quedarse atrás en lo que respecta a la tecnología basada en la IA, es esencial que la Unión avance hacia un mejor equilibrio entre la investigación básica y las aplicaciones industriales, al tiempo que aumenta sus ventajas comparativas estratégicas mediante el desarrollo del potencial y los recursos propios;

44.

Destaca que, en la medida en que se ajusten a la definición de «máquina» establecida en la Directiva 2006/42/CE (12), los robots deben diseñarse y montarse de acuerdo con las normas y las medidas de seguridad dispuestas en la misma;

45.

Recuerda que la Unión aspira a convertirse en un agente global en favor de la paz, y pide que esa función comprenda el desarme mundial y los esfuerzos de no proliferación, así como que sus acciones y políticas persigan el mantenimiento de la paz y la seguridad internacionales, garantizando el respeto del Derecho internacional humanitario y en materia de derechos humanos, además de la protección de los civiles y la infraestructura civil;

46.

Subraya la necesidad de analizar el impacto potencial de la IA como factor estratégico para la política común de seguridad y defensa (PCSD) de la Unión, especialmente en lo que respecta a las misiones y operaciones militares y civiles y al desarrollo de capacidades de la Unión;

47.

Recuerda que nuestros aliados en los marcos nacional, de la OTAN o de la Unión están integrando la IA en sus sistemas militares; cree que la interoperabilidad con nuestros aliados debe preservarse mediante normas comunes, que son esenciales para realizar operaciones en coalición; recuerda, por otra parte, que la cooperación en materia de IA debe encuadrarse en un marco europeo, que es el único marco pertinente para generar sinergias realmente potentes, como propone la estrategia de la Unión en materia de IA;

48.

Considera que la Unión debe seguir y considerar detenidamente las implicaciones de los avances de la IA para la defensa y la guerra, en particular de progresos y despliegues potencialmente desestabilizadores, y orientar la investigación y el diseño éticos, garantizando la integridad de los datos personales y el acceso y control individuales, así como tomando en cuenta los aspectos económicos y humanitarios;

49.

Recuerda su posición, de 12 de septiembre de 2018, sobre los sistemas armamentísticos autónomos, por la que afirma que no deben llevarse a cabo ataques sin una intervención humana significativa; pide al AR/VP, a los Estados miembros y al Consejo Europeo que adopten una posición común sobre los sistemas armamentísticos autónomos que garantice un control humano apropiado de sus funciones esenciales, también durante su despliegue; reafirma su apoyo a la labor, en materia de los SAAL, del Grupo de Expertos Gubernamentales de las Naciones Unidas de las Altas Partes Contratantes de la Convención sobre ciertas armas convencionales (CAC), que es el foro internacional pertinente para el debate y las negociaciones en torno a los desafíos de carácter jurídico que plantean los sistemas armamentísticos autónomos; pide que se intensifiquen todos los esfuerzos multilaterales existentes para que los marcos normativos y reguladores no se vean superados por el desarrollo tecnológico y nuevos métodos de guerra; pide al AR/VP que, en el marco de los debates en curso sobre la regulación internacional de los SAAL entre los Estados partes de la CAC, mantenga su compromiso y contribuya a impulsar sin demora los esfuerzos para elaborar un nuevo marco normativo mundial y un instrumento jurídicamente vinculante centrado en definiciones, conceptos y características concernientes a las tecnologías emergentes en el ámbito de los SAAL; en cuestiones éticas y jurídicas relativas al control humano, en particular con respecto a sus funciones esenciales, tales como la selección de un objetivo y la intervención; en el mantenimiento de la responsabilidad y la rendición de cuentas humanas, y en el grado necesario de interacción persona-máquina, y que contemple los conceptos de control y de juicio humanos; pide que tales esfuerzos garanticen el cumplimiento del Derecho internacional humanitario y en materia de derechos humanos durante las diferentes etapas del ciclo de vida de las armas basadas en la IA, con el fin de acordar recomendaciones concretas orientadas a la aclaración, la consideración y el desarrollo de aspectos del marco normativo relativo a las tecnologías emergentes en el ámbito de los SAAL;

50.

Considera que es primordial para la seguridad mundial contar con un mecanismo eficaz para hacer cumplir las normas relativas a la no proliferación de los SAAL y cualquier futura tecnología ofensiva basada en la IA;

La autoridad del Estado: ejemplos en los ámbitos civiles, como la sanidad y la justicia

51.

Insiste en que los Estados miembros deben tomar medidas eficaces para reducir su dependencia de datos extranjeros y, sin distorsionar considerablemente el mercado, para garantizar que la posesión de las tecnologías de IA más avanzadas por parte de poderosos grupos privados no desemboque en que la autoridad del Estado se vea desafiada, o incluso usurpada, por parte de entidades privadas, especialmente si dichos grupos privados pertenecen a un país de fuera de la Unión;

52.

Destaca que la utilización de sistemas de IA para tomar decisiones por parte de los poderes públicos puede conducir a decisiones sesgadas que afecten negativamente a los ciudadanos y que, por tanto, debe estar sujeta a estrictos criterios de control por lo que respecta a su seguridad, transparencia, rendición de cuentas, no discriminación y responsabilidad social y ambiental, entre otros; insta a los Estados miembros a que evalúen los riesgos relativos a las decisiones basadas en IA en relación con el ejercicio de la autoridad estatal y a que establezcan salvaguardias tales como una supervisión humana apropiada, requisitos de transparencia y la posibilidad de impugnar tales decisiones;

53.

Insta a los Estados miembros a que evalúen los riesgos relacionados con las tecnologías basadas en la IA antes de automatizar las actividades relacionadas con el ejercicio de la autoridad estatal, como por ejemplo la correcta administración de justicia; pide a los Estados miembros que consideren la necesidad de establecer salvaguardias, como por ejemplo normas estrictas en materia de ética profesional o la supervisión por profesionales cualificados;

54.

Destaca la importancia de adoptar medidas a nivel europeo para contribuir al fomento de las inversiones, tan necesarias; la infraestructura de datos; la investigación, en particular sobre el uso de la inteligencia artificial por parte de los poderes públicos, y un marco ético común;

55.

Hace hincapié en que la Unión debe esforzarse por lograr una resiliencia estratégica para que no vuelva a sorprenderla una crisis sin estar preparada, y subraya que esto reviste una importancia fundamental, especialmente por lo que se refiere a la inteligencia artificial y sus aplicaciones militares; hace hincapié en que las cadenas de suministro de sistemas de IA militares que puedan conducir a una dependencia tecnológica deben revisarse, y que deben eliminarse progresivamente dichas dependencias; pide una mayor inversión en IA europea para defensa y para la infraestructura esencial que la sostiene;

56.

Pide a la Comisión que evalúe las repercusiones de una moratoria del empleo de sistemas de reconocimiento facial y que, según los resultados de esta evaluación, se plantee la posibilidad de una moratoria del empleo de dichos sistemas por parte de los poderes públicos en el espacio público y en los locales destinados a la educación y la asistencia sanitaria, así como del empleo de sistemas de reconocimiento facial por parte de las autoridades encargadas de hacer cumplir la ley en espacios semipúblicos, como aeropuertos, hasta que las normas técnicas puedan considerarse plenamente conformes con los derechos fundamentales, los resultados obtenidos no sean sesgados ni discriminatorios y se cuente con salvaguardias estrictas frente a su uso indebido y mediante las que se comprueben la necesidad y la proporcionalidad del empleo de estas técnicas;

57.

Hace hincapié en la importancia que la ciberseguridad reviste para la IA en situaciones tanto de ofensa como de defensa; señala en este sentido la importancia de la cooperación internacional y de la publicación y puesta en común de vulnerabilidades y medidas correctivas en materia de seguridad informática; pide que haya tanto colaboración internacional en materia de ciberseguridad para un uso e implementación eficaz de la IA como salvaguardias contra el uso indebido de esta y los ciberataques; señala, asimismo, el doble uso de los sistemas informáticos (es decir, tanto para fines civiles como militares) y de la IA, y pide que se regule eficazmente;

58.

Opina que los Estados miembros deben promover las tecnologías de IA que sirvan al público y que las personas a quienes les afecte una decisión adoptada por un poder público basada en los resultados de un sistema de IA han de ser notificadas al respecto y recibir sin demora la información que se menciona en el apartado anterior, y se les debe ofrecer la posibilidad de impugnar dicha decisión y de elegir que su apelación se resuelva sin la intervención de un sistema de IA; pide a los Estados miembros que consideren la necesidad de establecer salvaguardias, previstas en la Directiva (UE) 2018/958 (13), como por ejemplo la supervisión por profesionales cualificados y normas relativas a la ética profesional;

59.

Destaca que las predicciones a partir del intercambio, el acceso y el uso de los datos deben regirse de conformidad con los requisitos de calidad, integridad, transparencia, seguridad, privacidad y control; subraya la necesidad de respetar el marco jurídico de la Unión en materia de protección de datos y privacidad a lo largo del desarrollo, el despliegue y el uso de la IA, la robótica y las tecnologías conexas, a fin de reforzar la seguridad de los ciudadanos y su confianza en estas tecnologías;

60.

Señala el rápido desarrollo de aplicaciones de IA para reconocer elementos característicos únicos, como rasgos faciales, movimientos o posturas; advierte de los problemas que se plantean en cuanto a la intrusión en la vida privada, la no discriminación y la protección de los datos personales en relación con el uso de aplicaciones de reconocimiento automático;

61.

Subraya que cualquier decisión sobre una persona física que se base únicamente en un tratamiento automatizado, incluida la elaboración de perfiles, y que produzca un efecto jurídico adverso para dicha persona o le afecte considerablemente está prohibida por el Reglamento General de Protección de Datos a no ser que la autorice el Derecho de la Unión o de los Estados miembros, a reserva de las medidas adecuadas para la protección de los derechos, libertades e intereses legítimos del afectado;

62.

Solicita que, cuando los poderes públicos empleen la IA, los algoritmos resulten explicables y haya transparencia y vigilancia reglamentaria, así como que se lleven a cabo evaluaciones de impacto antes de la implementación por parte de las autoridades estatales de herramientas que empleen técnicas de IA; pide a la Comisión y al Comité Europeo de Protección de Datos que emitan directrices y recomendaciones y que diseñen buenas prácticas al objeto de especificar en mayor detalle los criterios y las condiciones para las decisiones basadas en la elaboración de perfiles y el uso de la IA por parte de los poderes públicos;

63.

Observa que la inteligencia artificial desempeña un papel cada vez más esencial en el ámbito de la asistencia sanitaria, sobre todo gracias a los algoritmos de ayuda al diagnóstico, la cirugía asistida por robots, las prótesis inteligentes, los tratamientos personalizados basados en la modelización tridimensional del cuerpo de cada paciente, los robots sociales destinados a ayudar a las personas mayores, las terapias digitales diseñadas para mejorar la autonomía de algunos enfermos mentales, la medicina predictiva y los programas informáticos de respuesta ante epidemias;

64.

Insiste, no obstante, en que todos los usos de la IA en el ámbito de la salud pública deben garantizar la protección de los datos personales de los pacientes y evitar la difusión incontrolada de los mismos;

65.

Pide que en todos los usos de la IA en el ámbito de la salud pública se respete la igualdad de los pacientes en cuanto al acceso al tratamiento, se preserve la relación entre médico y paciente y se respete el juramento hipocrático en todo momento, de forma que el médico siempre tenga la posibilidad de desviarse de la solución propuesta por la IA, siendo así responsable de todas las decisiones;

66.

Señala que el empleo de la IA en la lucha contra la delincuencia y la ciberdelincuencia podría brindar una amplia gama de posibilidades y oportunidades; afirma, al mismo tiempo, que ha de seguir prevaleciendo el principio de que lo que es ilegal en el mundo real lo es también en el virtual;

67.

Señala que la IA se utiliza de forma cada vez más habitual en el ámbito judicial para tomar decisiones más racionales y más coherentes con las leyes vigentes, y de manera más rápida; celebra que, previsiblemente, mediante el empleo de la IA, se acelere el ritmo de los procesos judiciales;

68.

Considera que es necesario aclarar si es apropiado que las decisiones relativas a la aplicación de las leyes se deleguen parcialmente en la IA, manteniendo el control humano sobre la decisión final;

69.

Subraya que el uso de la IA en el ámbito de la justicia podría mejorar el análisis y la recogida de datos y la protección de las víctimas, y que esta posibilidad podría estudiarse en investigación y desarrollo e ir acompañada de evaluaciones de impacto, en particular en relación con las salvaguardias para la tutela judicial efectiva y frente a los sesgos y la discriminación, aplicándose para ello el principio de precaución; recuerda, no obstante, que no puede ocupar el lugar de un ser humano a la hora de dictar sentencia o tomar decisiones;

70.

Reitera la importancia que revisten los principios de gobernanza, transparencia, imparcialidad, rendición de cuentas, equidad e integridad intelectual en relación con el empleo de la IA en la jurisdicción penal;

71.

Insta a los Estados miembros a que evalúen los riesgos relacionados con las tecnologías basadas en la IA antes de automatizar las actividades relacionadas con el ejercicio de la autoridad estatal, en particular en el ámbito de la justicia; pide a los Estados miembros que se planteen la necesidad de establecer salvaguardias, como por ejemplo la supervisión por profesionales cualificados y normas relativas a la ética profesional;

72.

Señala que determinadas tecnologías de IA permiten automatizar la acción y el tratamiento de la información a una escala sin precedentes, como en el caso de la vigilancia colectiva en ámbitos civiles y militares, lo que representa una amenaza para los derechos fundamentales y allana el camino para la injerencia ilícita en la soberanía nacional; pide que se controlen las actividades de vigilancia colectiva atendiendo al cumplimiento y la jurisdicción del Derecho internacional; expresa su profunda preocupación por algunas aplicaciones de calificación social excesivamente invasivas que se han desarrollado últimamente, dado que ponen en grave peligro el respeto de los derechos fundamentales; pide que se prohíba explícitamente que los poderes públicos utilicen la calificación social masiva para restringir los derechos de los ciudadanos; pide que se intensifique la rendición de cuentas por parte de determinados agentes con arreglo al Derecho internacional, dada su hegemonía decisoria y su control del desarrollo de estas tecnologías; pide, en este contexto, a la Comisión, al Consejo y a los Estados miembros que presten especial atención cuando negocien, celebren y ratifiquen acuerdos internacionales relacionados con asuntos familiares transfronterizos, como la sustracción internacional de menores, y que garanticen que el uso de los sistemas de IA cuente en todo momento con una verificación humana efectiva y respete las garantías procesales dentro de la Unión y de los países signatarios de estos acuerdos;

73.

Solicita que se mantenga informado al público sobre el uso de la IA en el ámbito de la justicia, y que dichos usos no den lugar a discriminación derivada de sesgos de programación; subraya que debe respetarse el derecho de toda persona a tener acceso a un funcionario público, así como el derecho del funcionario responsable a tomar personalmente la decisión y a desviarse de la información recibida de la IA cuando lo considere necesario a la luz de los detalles del asunto en cuestión; recalca el derecho de la persona demandada a recurrir la decisión de conformidad con la legislación nacional, sin que se elimine en ningún caso la responsabilidad final del poder judicial;

74.

Solicita, por tanto, que todos esos usos en el ámbito público y administrativo constituyan información de dominio público y que se evite la discriminación derivada de sesgos de programación;

75.

Subraya la importancia de hacer posible el despliegue y el uso adecuados de la IA; pide a los Estados miembros que formen convenientemente a su personal civil y militar para que le sea posible detectar con precisión y evitar la discriminación y los sesgos en los conjuntos de datos;

76.

Expresa su profunda preocupación por las tecnologías de ultrafalsificación, que permiten falsificar de manera cada vez más realista fotos, audio y vídeo que podrían utilizarse para chantajear, crear bulos, mermar la confianza de la ciudadanía e influir sobre el discurso público; cree que estas prácticas pueden desestabilizar países, pues permiten difundir desinformación e influir en las elecciones; solicita por tanto que se obligue a que todo documento ultrafalseado o vídeo realista realizado mediante técnicas de síntesis sea etiquetado por el creador como «no original», limitándose estrictamente su uso para fines electorales y garantizándose firmemente el cumplimiento de esta obligación; pide una investigación suficiente en este sentido al objeto de lograr que las tecnologías para combatir estas prácticas no se queden atrás con respecto al uso malintencionado de la IA;

Transporte

77.

Observa el importante potencial económico de las aplicaciones de IA, en particular para la optimización del rendimiento a largo plazo, el mantenimiento, la predicción de averías y la planificación de la construcción en relación con las infraestructuras de transporte y los edificios, así como para la seguridad, la eficiencia energética y los costes; pide, por tanto, a la Comisión que siga apoyando la investigación en materia de IA y el intercambio de buenas prácticas en materia de transporte;

78.

Destaca la necesidad de impulsar la inteligencia artificial con el fin de promover la multimodalidad, la interoperabilidad y la eficiencia energética de todos los modos de transporte con vistas a potenciar una mayor eficacia en la organización y gestión de los flujos de tráfico de mercancías y pasajeros, hacer un mejor uso de las infraestructuras y los recursos a lo largo de la red transeuropea de transportes (RTE-T) y abordar los obstáculos para la creación de un verdadero espacio único europeo de transporte;

79.

Recuerda los beneficios del Sistema Europeo de Gestión del Tráfico Ferroviario (ERTMS), un sistema de protección de trenes automático y sin fisuras, y apoya la evolución y las normas internacionales relativas a la automatización de las operaciones ferroviarias;

80.

Acoge positivamente la labor del proyecto de investigación sobre la gestión del tráfico aéreo en el contexto del Cielo Único Europeo (SESAR) en el ámbito de los sistemas de aeronaves no tripuladas y de los sistemas de gestión del tráfico aéreo, tanto civiles como militares;

81.

Recuerda que los vehículos autónomos tienen un gran potencial para mejorar la movilidad y la seguridad y para generar beneficios en relación con el medioambiente, y pide a la Comisión y a los Estados miembros que garanticen la cooperación entre los agentes reguladores y todas las partes interesadas en el despliegue de vehículos de carretera automatizados en la Unión;

82.

Señala que el sector del transporte marítimo mundial ha sido objeto de cambios importantes como consecuencia de la integración de la IA en los últimos años; recuerda los debates exhaustivos que se están manteniendo en el seno de la Organización Marítima Internacional sobre la integración en el marco regulador de tecnologías nuevas y emergentes, como los buques autónomos;

83.

Destaca el modo en que los sistemas de transporte inteligente reducen la congestión del tráfico, incrementan la seguridad y la accesibilidad y contribuyen a mejorar la gestión de los flujos de tráfico, la eficiencia y las soluciones de movilidad; llama la atención con respecto al aumento de la exposición de las redes de transporte tradicionales a las ciberamenazas; recuerda la importancia de contar con recursos suficientes y de seguir investigando en relación con los riesgos para la seguridad a fin de garantizar la seguridad de los sistemas automatizados y de sus datos; acoge con satisfacción la intención de la Comisión de incluir la ciberseguridad como punto recurrente en el orden del día de los debates en el seno de las organizaciones internacionales relacionadas con el transporte;

84.

Acoge con satisfacción los esfuerzos en favor de la introducción de sistemas de IA en el sector público y apoyará nuevos debates sobre el despliegue de la IA en el sector del transporte; pide a la Comisión que evalúe el uso de la IA y de tecnologías similares en el sector del transporte y que elabore una lista no exhaustiva de los segmentos de alto riesgo en el contexto de los sistemas de IA que sustituyen a decisiones en el marco de las prerrogativas de los poderes públicos en este ámbito;

85.

Subraya que el Fondo Europeo de Defensa y la Cooperación Estructurada Permanente deben estimular la cooperación entre los Estados miembros y las industrias europeas de defensa para desarrollar nuevas capacidades de defensa europeas en el ámbito de la IA y garantizar la seguridad de servicio, tomando en cuenta consideraciones éticas; hace hincapié en la necesidad de evitar la fragmentación mediante la creación de puentes entre los distintos agentes y ámbitos de aplicación promoviendo la compatibilidad y la interoperabilidad a todos los niveles y centrándose en colaborar para obtener soluciones de arquitectura y plataformas; recuerda, por otra parte, que en el próximo Mecanismo «Conectar Europa», que también fomenta la infraestructura inteligente, se preverá un fondo para la adaptación y el desarrollo de infraestructuras de transporte de doble uso, civil o militar, en la RTE-T con el fin de reforzar las sinergias entre las necesidades civiles y de defensa y de mejorar la movilidad militar en la Unión; hace hincapié, en este contexto, en la necesidad de aumentar la inversión europea, de investigación y de un liderazgo reforzado en relación con las tecnologías con un fuerte impacto en el crecimiento económico y un considerable potencial de doble uso;

86.

Subraya que numerosas inversiones en nuevas tecnologías en el ámbito del transporte y la movilidad están orientadas al mercado pero que las tecnologías y productos comercialmente disponibles de doble uso se utilizan a menudo de manera innovadora con fines militares; destaca, por tanto, que al elaborar normas relativas al uso de la IA en los distintos ámbitos de carácter comercial y militar debe tenerse en cuenta el potencial de doble uso de las soluciones basadas en la IA; pide que se tengan en cuenta normas y principios éticos rigurosos en el desarrollo de tecnologías, productos y principios de funcionamiento en el ámbito de la defensa;

87.

Señala que el transporte eficaz de mercancías, municiones, armamento y tropas es un componente esencial del éxito de las operaciones militares; destaca que cabe esperar que la IA desempeñe un papel fundamental y brinde numerosas posibilidades en el ámbito de la logística y el transporte militares; señala que diferentes países del mundo, incluidos Estados miembros de la Unión, están incorporando armas basadas en la IA y otros sistemas en plataformas terrestres, navales y aéreas; recuerda que la utilización de la IA en el sector del transporte podría generar nuevas capacidades y permitir nuevos tipos de tácticas, como la combinación de diferentes sistemas, por ejemplo drones, embarcaciones sin tripulación o tanques, en el marco de una operación independiente y coordinada;

Derecho internacional privado

88.

Señala que, dado que un número cada vez mayor de litigios derivados del Derecho internacional privado se genera como consecuencia de la internacionalización de las actividades humanas, ya sean en línea o en el mundo real, la IA puede ayudar a resolverlos creando modelos que permitan identificar la competencia judicial y el Derecho aplicables en cada caso, así como identificar los conflictos de leyes más arduos y proponer soluciones para resolverlos;

89.

Considera, no obstante, que los usos de la IA en el Derecho internacional privado se han de comunicar debidamente al público; no deben dar lugar a discriminaciones derivadas de la programación, las cuales harían que se favoreciera sistemáticamente a la legislación de una nación en detrimento de la de otra; deben respetar los derechos del tribunal predeterminado por la ley, y deben permitir tanto la interposición de recursos con arreglo al derecho aplicable como la desestimación de la solución propuesta por la IA por parte del juez;

90.

Subraya que la circulación de vehículos autónomos en la Unión, que podría dar lugar a un número particularmente elevado de litigios de Derecho internacional privado, debe estar sujeta a una normativa europea particular que disponga el régimen jurídico aplicable en caso de daños transfronterizos;

91.

Señala que, habida cuenta de la creciente importancia de la investigación y el desarrollo en el sector privado y de las ingentes inversiones procedentes de terceros países, la Unión se enfrenta con una fuerte competencia; apoya, por tanto, los esfuerzos de la Unión por aumentar sus ventajas competitivas y considera que debe aspirar a ser un referente en el establecimiento de normas en materia de IA en un mundo hiperconectado, adoptando una estrategia eficaz con respecto a sus socios externos y redoblando sus esfuerzos con vistas al establecimiento de normas éticas para la IA a escala internacional en consonancia con las reglas de seguridad y los requisitos en materia de protección de los consumidores, así como con los valores europeos y los derechos de los ciudadanos, en particular los derechos fundamentales; considera que este punto es también clave para la competitividad y la sostenibilidad de las empresas europeas; pide a la Comisión y a los Estados miembros que refuercen la cooperación con terceros países y organizaciones internacionales, tales como las Naciones Unidas, la OCDE, el G-7 y el G-20, y que entablen un diálogo de más amplio alcance para abordar los retos que plantea el desarrollo de esta tecnología en rápida transformación; considera que tales esfuerzos deberían orientarse, en particular, a establecer normas comunes y mejorar la interoperabilidad de los sistemas basados en la IA; pide a la Comisión que fomente el diálogo, una cooperación más estrecha y sinergias entre los Estados miembros, los investigadores, el entorno académico, los agentes de la sociedad civil y el sector privado (en particular, las empresas líderes) y el Ejército, a fin de garantizar el carácter inclusivo de los procesos de elaboración de políticas relativas a la normativa en materia de IA relacionada con la defensa;

Principios rectores

92.

Considera que las tecnologías y los sistemas de redes basados en IA deben aspirar a proporcionar seguridad jurídica a los ciudadanos; subraya, por tanto, que deben seguir aplicándose las normas sobre conflictos legales y jurisdiccionales, atendiendo al mismo tiempo al interés de los ciudadanos y la necesidad de reducir el riesgo de búsqueda del foro más ventajoso; recuerda, que la IA no puede ocupar el lugar de un ser humano en el proceso judicial a la hora de dictar sentencia o de adoptar decisiones definitivas de ningún tipo, pues tales decisiones siempre las debe tomar un ser humano y han de estar sujetas estrictamente a una verificación y una tutela judicial efectiva a cargo de un ser humano; insiste en que, cuando se utilicen elementos de prueba proporcionados por tecnologías asistidas por la IA, las autoridades judiciales tengan la obligación de motivar sus decisiones;

93.

Recuerda que la IA supone un avance científico que no debe ser contrario al Derecho, sino que, en cambio, debe regirse siempre por este –en el caso de la Unión Europea, por el Derecho que emana de sus instituciones y de los Estados miembros– y que la IA, la robótica y las tecnologías relacionadas no deben contravenir en ningún caso la democracia, el Estado de Derecho ni los derechos fundamentales;

94.

Recalca que la IA empleada con fines de defensa debe ser responsable, equitativa, trazable, fiable y gobernable;

95.

Considera que la IA, la robótica y las tecnologías relacionadas, incluidos los programas informáticos, los algoritmos y los datos utilizados o producidos por dichas tecnologías, deben desarrollarse de manera segura y técnicamente rigurosa, independientemente del campo en el que se utilicen;

o

o o

96.

Encarga a su presidente que transmita la presente Resolución al Consejo y a la Comisión.

(1)  DO L 180 de 19.7.2000, p. 22.

(2)  DO L 303 de 2.12.2000, p. 16.

(3)  DO L 119 de 4.5.2016, p. 1.

(4)  DO L 119 de 4.5.2016, p. 89.

(5)  DO L 252 de 8.10.2018, p. 1.

(6)  DO C 252 de 18.7.2018, p. 239.

(7)  DO C 307 de 30.8.2018, p. 163.

(8)  DO C 433 de 23.12.2019, p. 86.

(9)  DO C 433 de 23.12.2019, p. 42.

(10)  DO C 449 de 23.12.2020, p. 37.

(11)  Directiva 2005/36/CE del Parlamento Europeo y del Consejo, de 7 de septiembre de 2005, relativa al reconocimiento de cualificaciones profesionales (DO L 255 de 30.9.2005, p. 22)

(12)  Directiva 2006/42/CE del Parlamento Europeo y del Consejo, de 17 de mayo de 2006, relativa a las máquinas y por la que se modifica la Directiva 95/16/CE (DO L 157 de 9.6.2006, p. 24).

(13)  Directiva (UE) 2018/958 del Parlamento Europeo y del Consejo, de 28 de junio de 2018, relativa al test de proporcionalidad antes de adoptar nuevas regulaciones de profesiones (DO L 173 de 9.7.2018, p. 25).


Top