NAIZ

La pesadilla de Asimov: la UE trata de poner límites éticos a la inteligencia artificial

El visionario Isaac Asimov formuló tres leyes para dotar de ética a los robots. La primera de ellas es que jamás un robot «hará daño a un ser humano o, por inacción, permitirá que un ser humano sufra». La UE ha discutido leyes de ciencia ficción a impulso de la ultraderecha.

Imagen del pleno de la Eurocámara. (Frederick FLORIN/AFP)
Imagen del pleno de la Eurocámara. (Frederick FLORIN/AFP)

El Parlamento Europeo (PE) ha aprobado hoy, por 364 votos a favor, 274 en contra y 52 abstenciones, un informe sobre las directrices del uso de la Inteligencia Artificial (IA) tanto en el ámbito civil como el militar y ha instado a su regulación. Según la Eurocámara, la IA debe estar sujeta al control humano para poder ser corregida o desactivada «en caso de un comportamiento imprevisto».

El ponente del informe, el eurodiputado del grupo de extrema derecha Identidad y Democracia Gilles Lebreton señaló en un comunicado que esta tecnología debe ser un «instrumento de ayuda en la toma de decisiones y nunca sustituir a las personas ni eximirlas de su responsabilidad».

Con su aprobación, los diputados pidieron un marco legal europeo que regule la IA que disponga de una definición y unos principios éticos, incluso para su uso militar. Lamentablemente, esos principios éticos nunca estarán a la altura que los que formuló Asimov, que impedían que cualquier inteligencia de tipo artificial fuera capaz de dañar a un ser humano. 

El Partido Popular Europeo (PPE) se ha mostrado favorable a una regulación y ha abogado por estipular unas «normas claras sobre dónde pueden utilizarse y dónde no deben utilizarse». 

El eurodiputado y miembro de la comisión de Asuntos Jurídicos del PPE, Emil Radev, ha explicado que su partido (el PPE) quiere «evitar la vigilancia y el abuso masivo», lo que no significa prohibir la norma en su conjunto.

Por su parte, los socialdemócratas se han posicionado en contra del informe porque cruza una «línea roja».

«Lamentablemente, el informe presentado por el grupo de extrema derecha se queda corto en numerosas cuestiones de derechos fundamentales, como el uso del reconocimiento facial en los espacios públicos», ha criticado el diputado alemán Tiemo Wölken.

Asimismo, el PE pide a la Unión Europea y a sus veintisiete estados miembros que dicha tecnología se centre en servir «a la humanidad y al bien común», han puntualizado los legisladores en un comunicado.

El dilema ético

«El uso de sistemas autónomos de armas letales plantea cuestiones éticas y jurídicas fundamentales sobre el control humano, que reiteran su llamamiento a favor de una estrategia de la UE para su prohibición, así como la de los 'robots asesinos'», han subrayado.

La adopción de medidas letales a través de un sistema de armas autónomo debe ser «siempre» tomada por las personas «que ejerzan un control y juicio significativos».

Respecto al uso de IA en los servicios públicos, los parlamentarios han insistido que, en el ámbito de la sanidad y la justicia, no debe sustituir en ningún caso al contacto humano «ni dar lugar a la discriminación».

«Los ciudadanos siempre deben ser informados si están sujetos a una decisión basada en la IA y tienen la posibilidad de apelar», ha señalado el PE.

Por ejemplo, la aplicación de esta tecnología en cirugías asistidas por robots o prótesis inteligentes debe proteger los datos de los pacientes y respetar la igualdad de trato.

Además, los diputados han alertado de las amenazas a los derechos fundamentales y a la soberanía de los países el uso de la IA en la «vigilancia masiva», tanto en el ámbito civil como militar.

El informe también plantea el problema de posibles falsificación a través de lo que se conoce como «Deep Fake», que tiene el potencial de «desestabilizar los países, difundir información errónea e influir en las elecciones».