Iker BIZKARGUENAGA
retos de las nuevas tecnologías

¿PUEDE UNA MÁQUINA DECIDIR QUIÉN VIVE Y QUIÉN DEBE MORIR?

El conductor de un vehículo sin frenos debe optar entre arrollar a varios niños o chocar contra un muro, con resultado fatal en ambos casos. ¿Cuál será su decisión? ¿Matar a los críos o perecer para evitarlo? ¿Y qué pasaría si la respuesta dependiera del coche?

No hace mucho que abordamos en estas páginas los avances que se están produciendo en torno a la inteligencia artificial y las implicaciones que se derivan de esta revolución tecnológica en ciernes. Hablamos de consecuencias económicas, laborales y sociales, pero también de debates filosóficos y de controversias que rozan el ámbito de la moral, del discernimiento entre el bien y el mal y la gama de grises que se desparrama en medio de ambos extremos.

Está ocurriendo, por ejemplo, en uno de los campos donde más rápido se están quemando etapas hacia la automatización completa, el de los vehículos autónomos. Cada vez es más verosímil un escenario en el que los coches puedan circular sin conductor ni control remoto, sin ayuda externa en absoluto, y desde el punto de vista técnico todo parecen ventajas, pues las máquinas reaccionan mucho antes y sin fallo ante posibles obstáculos. Ocurre, sin embargo, que más allá de guardar la distancia y de encarar los badenes a una velocidad adecuada, quien conduce un coche debe tomar decisiones que son inherentes a su condición humana. Y si una máquina va a sustituirle, debe ser capaz de hacer lo mismo. Y ahí entra la moral; voluble, caprichosa, siempre subjetiva.

Entre la espada y la pared

¿A qué circunstancias nos referimos? Pongámonos en situación: una persona conduce un vehículo y al enfilar una pendiente pronunciada se da cuenta de que los frenos no funcionan. A unos metros una pareja cruza la carretera junto a dos menores, unos críos. Están justo enfrente del coche, y a la velocidad a la que avanza es probable que todos acaben muertos o malheridos. Pero hay otra opción: que el conductor dé un volantazo y choque contra un elemento del mobiliario urbano, aunque hacerlo podría costarle la vida. ¿Qué decisión tomaría? ¿Cuál sería la nuestra, en esa misma circunstancia? Y como observadores, ¿cuál sería la decisión correcta desde un punto de vista “moral”?

Cada persona tendrá su propia respuesta, y es posible que vaya variando en función de si en el coche viajan más personas, del número de transeúntes, de la edad de estos... ¿Actuaríamos igual ante una mujer embarazada que ante un anciano? ¿Y entre una niña y un adulto? No es una cuestión fácil, mucho menos si hay que decidirla en segundos. Si se tratara de un vehículo autónomo, ¿qué decisión debería adoptar? ¿Puede una máquina decidir qué vida es más importante?

Experimento en el MIT

Este tipo de preguntas son las que aborda el Instituto Tecnológico de Massachusetts en la conocida como Moral Machine, un simulador que presenta distintos escenarios en los que los participantes deben tomar decisiones que generen el menor coste humano posible. Las situaciones se exponen en una web –moralmachine.mit.edu– a la que cualquiera puede acceder y decidir lo que a su juicio el vehículo debería hacer. Los datos recabados –ya van más de cuatro millones– pasan a formar parte de un estudio del MIT Media Lab, donde participan desde ingenieros a filósofos y que busca fijar el comportamiento que debería tener un coche autónomo desde un punto de vista moral.

Pero el estudio tiene sus pegas. Uno de los problemas detectados es de carácter práctico. Porque una cosa es que en un simulador una persona considere más aceptable la muerte del conductor que la de un número mayor de peatones –un 60% entre los participantes en Moral Machine lo cree–, y otra distinta es que esa persona esté dispuesta a comprar un coche que, llegado el momento, elija estrellarse y sacrificarla antes que provocar un atropello. ¿Compraría alguien un vehiculo así? La mayoría, probablemente, no. De hecho, según ese mismo estudio solo un tercio subiría a un coche autónomo programado para arriesgar la vida de un pasajero a cambio de salvar la de diez personas.

Por si acaso, en Mercedes ya han dejado clara su posición: en la hipótesis de tener que escoger, sus coches autónomos salvarán la vida de los pasajeros antes que la de los peatones, sean estos quienes sean o cuantos sean. Así lo expuso en una reciente entrevista el responsable de los sistemas de asistencia y seguridad activa de la compañía germana, Christoph von Hugo, quien alegó que «si sabes que puedes salvar al menos a una persona, salva a esa persona, a la que va en el coche. Si todo lo que sabes a ciencia cierta es que solo se puede prevenir una muerte, entonces esa es tu principal prioridad». Un argumento que apenas se sostiene con pinzas y que responde más bien a una lógica comercial. La cuestión es que si el resto de marcas siguen esa senda por la misma razón, el debate moral ya no tiene recorrido.

La edad, el principal factor

En cualquier caso, los dilemas de la máquina no ponen siempre en relación al conductor con los peatones, también plantean distinciones entre estos últimos, dando la opción de atropellar a unos u otros en función de diferentes variables. Algunas ya se han citado, como la edad o el número de afectados, pero el experimento incluye otros como el género, el estatus social –médicos o mendigos, por ejemplo–, la forma física –personas obesas o deportistas– e incluso ofrece la opción de elegir entre personas y mascotas.

En este sentido, la edad es el factor más determinante, y casi no hay duda cuando se trata de arrollar a un menor o a un adulto. De hecho, cuanto mayores son los peatones más posibilidades tienen de ser ellos los atropellados. Pero esa unanimidad va menguando cuanto más se complica el escenario –un menor vs cinco adultos– y también se ha detectado que las decisiones varían en función del lugar de procedencia de quienes participan en el ensayo. Porque la moral, al parecer, también entiende de geografía.

la moral, una brújula que nos guía, que depende de la química y es manipulable

La moral tiene nueve acepciones en la RAE y tantas interpretaciones como personas hay en la Tierra. Moral, ética, conciencia... son elementos subjetivos, que se refieren al obrar del ser humano y han estado históricamente ligados a doctrinas sociales, políticas y religiosas. Sin embargo, la moral no tiene que ver con cualidades de índole espiritual, nada tiene de metafísico, y es tan abordable científicamente como la dureza de una aleación, el cambio climático o una úlcera de estómago.

Hace tres años, la sicóloga Roberta Sellaro y su equipo de la Universidad de Leyden (Holanda) sometieron a sesenta estudiantes a un estudio consistente en una estimulación craneal de corriente directa. En concreto, sobre sus cortezas prefontales mediales, una zona del cerebro relacionada con la capacidad de contrarrestar sesgos xenófobos, de modo que cuando está muy activa esa persona no se deja llevar tan fácilmente por prejuicios. El estudio demostró que los sujetos a los que se les estimulaba mostraban actitudes menos racistas.

Este hecho indicaría que no existe nada predeterminado que nos conduzca a adoptar una opción u otra, o que nos haga depositarios de una “moral” mejor o peor que la del resto. Al contrario, la temperatura, el ritmo circadiano, la alimentación, el deporte... inciden en la concentración química de nuestros neurotransmisores e influyen en nuestras decisiones. Es sabido cómo cambia nuestra conducta en situaciones de enfado, somnolencia o euforia. Así, sería interesante tener un control del contexto en el que tomamos nuestras decisiones y saber adaptar nuestro estado para que estas sean acertadas.

Y, claro, además de los condicionantes biológicos están los ambientales. Y entre todos elaboran un cóctel que nos hace ser como somos: a veces el Doctor Jekyll y otras veces Míster Hyde. I. B.