IA y ética: el problema no es que el algoritmo sea racista, es que lo sea el programador
Pedro Manuel Sasia, Iñaki Suárez y Jesús Jiménez han analizado en Donostia la ética aplicable a la IA. El primero ha destacado que el «algoritmo no es un sujeto ético», responde a las pautas marcadas por un humano. Así, el problema no es que el algoritmo sea racista, sino que lo sea su programador.

«El reto ético no es que el algoritmo sea racista, es que el programador lo sea». Así de tajante se ha pronunciado Pedro Manuel Sasia, director del Departamento de Ciencias Sociales y Humanas y profesor de Ética Cívica y Profesional en la Universidad de Deusto, que este jueves ha participado en un curso de verano de EHU titulado ‘Hacia una Inteligencia Artificial ética: desafíos para los derechos humanos y para la protección de datos’.
Sasia ha compartido mesa en el Palacio Miramar con Iñaki Suárez, director de Tecnología del Basque Artificial Intelligence Center (BAIC), y Jesús Jiménez, director del Consejo de Transparencia y Protección de Datos de Andalucía. Los tres han analizado los derechos fundamentales y la ética aplicable a la IA en las administraciones públicas, si bien el profesor de Deusto ha ampliado la perspectiva y ha alertado del riesgo de «antropologizar» la tecnología.
Ha manifestado que la IA generativa son «artefactos o herramientas, no los personifiquemos». «Una de las cosas que tenemos que entender es que generan unos y ceros, y lo que esos unos y ceros hacen es nuestra decisión», ha añadido, poniendo de manifiesto el papel del ser humano en el desarrollo de un algoritmo que condiciona el día a día de muchas personas.
«No saber hacer raíces cuadradas igual no te resta humanidad, pero no saber orientarte en una ciudad igual te resta un poco, y no tener memoria igual un poco mas, y no tener nada de autonomía igual te resta un poco más de humanidad», ha aseverado y ha advertido de que «la gran amenaza de la super IA no es que acabe aniquilándonos, sino qué humanos nos quedemos».
«Esto no es ciencia ficción. Hoy es posible transmitir como veraz información que no lo es y que no puede comprobarse que no sea veraz», ha apuntado antes de señalar que la Administración Pública tiene «tecnopersonalidad y muchos retos», entre los que ha citado definir marcos normativos, prestar servicios, preservar bienes comunes, gestionar datos... «Y cada uno proyecta retos éticos específicos cuando se incorpora la IA», ha precisado.
Transparencia y rendición de cuentas
Suárez se ha centrado en el uso de la IA por parte de empresas e instituciones, y ha anunciado que este año se dará cuenta de una segunda actualización del Código Ético para el Desarrollo, Uso e Implementación de la IA, un «acuerdo de mínimos» que adoptado por entes públicos como EITB tiene por objeto «poner sobre la mesa cómo queremos utilizar los sistemas de IA».
En línea con la posición defendida por Sasia, ha incidido en la importancia de la «acción y de la supervisión humana». «El responsable último de un sistema de IA siempre tiene que ser una persona que vigile», ha afirmado, y ha remarcado que es preciso controlar los datos que se introducen en los sistemas de IA «para que actúen de una forma u otra y no tengan sesgos».
También ha defendido el «principio de transparencia», y ha abogado por alertar a los usuarios cuando se relacionen con una IA o consuman algún producto elaborado mediante dicha tecnología. Por último, ha propuesto la «rendición de cuentas» cuando estos sistemas perjudiquen a la sociedad.
Jiménez, por su parte, ha destacado que la IA se tiene que usar «en lo que se debe, no más». «Ante un problema que se quiere resolver en el sector público, la pregunta es, ¿hace falta IA o lo puede resolver con otra tecnología?», ha cuestionado, y ha subrayado que, «de lo que se trata es de que haya una verificación de que son herramientas adecuadas en función del problema que se plantea».
Además, ha puesto en valor la protección de datos y ha dado cuenta de los pasos dados en Andalucía, donde hay diferentes niveles de evaluación. «Hay que garantizar la rendición de cuentas, porque ahora nadie pregunta qué datos tiene la Administración y con qué sistemas se están tratando», ha expuesto.

Desalojado el instituto de Martutene, el Ayuntamiento solo realoja a la mitad en La Sirena

Solicitan inhabilitación y prisión para los policías acusados de agredir a un menor en Gasteiz

Euskal Herriko Osborneren azken zezena lurrera bota du Ernaik

Ertzainas del ‘caso Zabarte’ dicen que los proyectiles prohibidos «se les cayeron de una bolsa»

