Iker BIZKARGUENAGA

Recelos y temores ante la puerta de Tannhäuser

Siete décadas después de que se enunciaran las tres leyes de la robótica, algunos de los dilemas que planteaban autores como Isaac Asimov, Arthur C. Clarke, Philip K. Dick y otros maestros de la ciencia ficción ya están sobre la mesa. Darles respuesta es un reto colectivo.

En 2014 Stephen Hawking afirmó que «la creación de una auténtica máquina que piense constituiría el mayor evento en la historia». El genio de la física, fallecido en marzo, visualizaba un ordenador que excedería el nivel de inteligencia del ser humano, capaz de «vencer a los medios financieros, superar a los investigadores, manipular a sus líderes y desarrollar armas que no podamos siquiera entender». Y advertía de que descartar este escenario por imposible podría acabar siendo «potencialmente, el mayor error de la historia». «El desarrollo de la inteligencia artificial podría significar el fin de la raza humana», apostillaba, tajante.

Es una afirmación difícil de creer, pero Hawking no era un advenedizo. Y no ha sido el único que ha lanzado la misma advertencia. El magnate Elon Musk ha seguido su estela: «Es un riesgo para la existencia de nuestra civilización», sostuvo durante una reunión con gobernadores celebrada el pasado verano en Rhode Island. «Es como esas historias en las que alguien convoca al demonio. Siempre hay un tipo con un pentáculo y agua bendita convencido de que podrá controlarle, y claro, no funciona», considera el responsable de Tesla y SpaceX, con un discurso que evoca películas de ciencia ficción como “Terminator”, “Yo, robot” o “Blade Runner”. Frente a ello, pide pisar el freno y regular los avances en esta materia.

Puede parecer exagerado, pero tanto Hawking como Musk son dos de los firmantes de los 23 principios de Asilomar, cuyo objeto es promover un desarrollo adecuado de la inteligencia artificial. Son más de dos mil los expertos en ámbitos como la física, la robótica, la economía o la filosofía que los han suscrito, entre ellos el director del Instituto de Investigación de Inteligencia Artificial del CSIC (Consejo Superior de Investigaciones Científicas), Ramón López de Mantaras.

En declaraciones a elconfidencial.com poco después de ese encuentro, López de Mantaras llamaba la atención sobre dos puntos del listado. Por un lado, el número 18, donde se afirma que el ser humano debe desistir de la creación de armas autónomas. «El día en que las guerras se libren entre máquinas será mucho más fácil que se produzcan –explicaba–, ya que son las pérdidas humanas las que frenan a los países. Esto es terrible, porque cada conflicto produce bajas civiles y efectos colaterales. Y aunque sean robots, no creo que peleen en medio del desierto». En este momento, ninguna norma internacional prohíbe el uso de armas autónomas, sin control humano, aunque esta opción ya está siendo debatida en la ONU. El científico señalaba en segundo lugar el principio 16, que se refiere a dar autonomía absoluta a las máquinas en todos los ámbitos. «Hay que pensárselo no una vez, sino varias», opinaba López de Mantaras, a quien no le convence que una máquina decida sin intervención humana. De todos modos, el científico del CSIC no es de los que piensa que a corto plazo vayamos a tener que lidiar con este tipo de superinteligencias ni con la mayoría de los riesgos que se enumeran en el listado, que ve sobre todo como guía orientativa.

Control privado y criterio comercial

Sin necesidad de invocar el espíritu de Skynet ni escudriñar lo que puede deparar un futuro dominado por las máquinas, hay autores que han expresado otro tipo de preocupaciones, más ligadas al corto plazo y al uso inadecuado de la inteligencia artificial.

Por ejemplo, Liesl Yearsley, CEO de Cognea Artificial Intelligence entre 2007 y 2014, advertía en technologyreview de que los usuarios de software de inteligencia artificial hablaban con sus asistentes automatizados durante más tiempo del que dedicaban a sus homólogos humanos. «La gente comparte voluntariamente secretos muy personales con las personalidades artificiales, como sus sueños de futuro, detalles sobre sus vidas amorosas o incluso contraseñas», explicaba. Desde ese punto de partida, Yearsley apuntaba que «incluso los programas actuales, relativamente sencillos, pueden ejercer una importante influencia sobre la gente, para bien o para mal», y aseguraba que ellos mismos, desde Cognea, «logramos cada cambio de conducta que nos propusimos. Si queríamos que un usuario comprara más productos, conseguimos doblar las ventas. Si queríamos una mayor participación, logramos que la gente pasara de unos pocos segundos de interacción al día a una hora o más». Por ello, en su empresa empezaron a incorporar reglas «para garantizar que la manipulación del usuario se ejerciera en una dirección positiva», aunque hablar de manipulación en clave positiva tiene regusto a oxímoron.

Partiendo de su propia experiencia, Yearsley destaca que «las fuerzas comerciales que impulsan el desarrollo tecnológico no siempre son tan benévolas», bien al contrario, señala que siendo su objetivo incrementar el valor de sus acciones, aumentando el tráfico, el consumo y la adicción a sus productos, «la naturaleza de los mercados capitalistas puede empujarnos hacia una inteligencia artificial empeñada en manipular nuestro comportamiento para lograr esos objetivos». Y es que, igual que estamos observando el poder creciente de las redes sociales para modular comportamientos, los sistemas diseñados para mantener relaciones con humanos se irán volviendo cada vez más poderosos. «La inteligencia artificial influirá en nuestra forma de pensar y tratar a los demás», insiste, añadiendo que «debemos centrarnos en desarrollar una IA que mejore la condición humana en lugar de limitarla a generar beneficios financieros».

Racismo, sexismo...

También suscita recelo la posibilidad de que, siendo una creación del ser humano, la inteligencia artificial asuma y emule sus rasgos menos edificantes, como son el racismo, el machismo, etc. De hecho, estos prejuicios ya han aparecido. Los algoritmos de Google han llegado a confundir caras de personas de raza negra con simios, del mismo modo en que cuando se le pide un bebé, este siempre es blanco, y si es niña, viste de rosa.

En términos generales, puede decirse que cuando una IA aprende un idioma termina por asumir los sesgos humanos que están incluidos en el lenguaje. Se vuelven racistas y machistas, no necesariamente porque alguien haya querido que así sea, sino porque el lenguaje ya contiene ese tipo de sesgos.

En abril de 2017 los profesores Aylin Caliscan, Joanna J. Bryson y Arvind Narayanan publicaron en la revista Science un artículo sobre el modo en que las máquinas aprendían a leer. Se trata, explicaban, de buscar la probabilidad que tiene cada palabra de estar rodeado por otras, de forma que la IA puede determinar que un perro es más parecido a un gato que a una nevera, ya que es frecuente que digamos «voy a casa a darle de comer a mi perro/gato», pero nunca decimos «voy a casa a darle de comer a mi nevera».

Partiendo de ese método, desarrollaron una IA que utilizó más de dos millones de palabras durante su aprendizaje y analizaron la manera en que las asociaba, de forma parecida a los test que se hacen con personas para conocer sus sesgos inconscientes. Al hacerlo, descubrieron que la IA reproducía sesgos habituales; por ejemplo, asociaba con mayor probabilidad los nombres femeninos con palabras relacionadas con tareas domésticas o temas familiares, y los nombres masculinos con conceptos profesionales. Del mismo modo, también observaron que la máquina asumía sesgos raciales, pues asociaba los nombres de origen europeo con estímulos positivos con una mayor probabilidad que los nombres afroamericanos.

¿Serán los algoritmos capaces de reflejar la diversidad social? ¿Tendrá valores la inteligencia artificial? ¿Cuáles? ¿Quién se los inculcará? No son preguntas menores cuando este tipo de herramientas deciden, y lo harán cada vez más, en ámbitos tan sensibles como el control de fronteras, la evaluación de riesgos crediticios, la selección de personal, etc. La reproducción de los estereotipos inherentes al lenguaje y a la naturaleza humana es una de las principales preocupaciones de quienes abordan con perspectiva crítica el desarrollo de la inteligencia artificial.

En el ámbito del Derecho también han surgido algunas preguntas a medida que la aplicación de la IA se va generalizando. ¿Van a ser los robots responsables de los daños que puedan causar? ¿Quién va a asumir la responsabilidad en caso de accidente provocado por un coche autónomo? ¿El dueño? ¿La empresa constructora? ¿El ingeniero que diseñó la IA? Todas estas preguntas se formulan cada vez más frecuentemente, mientras vehículos de este tipo son testados ahora mismo en carreteras convencionales.

No sabemos si en el futuro los androides soñarán con ovejas eléctricas, y la idea de robots homicidas produce más hilaridad que alarma, pero el desarrollo de la inteligencia artificial va a generar nuevas preguntas para las que habrá que hallar nuevas respuestas. Aunque, como diría el replicante Roy Batty, «es toda una experiencia vivir con miedo, eso es lo que significa ser esclavo».