Asier ROBLES
CONGRESO SOBRE GESTIÓN AVANZADA DE EUSKALIT

LA INTELIGENCIA ARTIFICIAL, RIESGOS Y OPORTUNIDADES POR CONOCER

SU UTILIZACIÓN EN GUERRAS, EN ATAQUES CIBERNÉTICOS O EN «FAKE NEWS»; SU IMPACTO EN EL MUNDO LABORAL; O EL MAL USO DE LOS DATOS SON TEMAS QUE PREOCUPAN AL ABORDAR LA INTELIGENCIA ARTIFICIAL. IDOIA SALAZAR, FUNDADORA DE ODISEIA, EXPLICÓ ESTOS CASOS EN UNA CONFERENCIA EN EL PALACIO EUSKALDUNA.

gara-2019-11-13-Crónica

En el marco del Congreso de Gestión Avanzada de Euskalit, que se está celebrando estos días en el Palacio Euskalduna de Bilbo, la asociación Bilbao Metrópoli-30 organizó ayer una charla sobre el impacto social y ético de la tecnología y la inteligencia artificial (IA).

La ponencia corrió cargo de Idoia Salazar, fundadora del Observatorio del Impacto Social y Ético de la Inteligencia Artificial (OdiseIA). La experta comenzó explicando que, pese a que en la actualidad, la IA «depende únicamente» del ser humano, «de la persona que la está desarrollando», sus capacidades son «muy grandes» y su desarrollo puede llegar a tener «autonomía en la toma de decisiones». «Ese es uno de los grandes riesgos que puede tener esta tecnología», advirtió.

Pero sin irse tan lejos, Salazar expuso otros tipos de circunstancias que pueden darse en un futuro próximo. Una de las cuestiones que más preocupa a la sociedad es la posibilidad de que con el desarrollo de la IA desaparezcan puestos de trabajo. «Por supuesto que van a desaparecer puestos de trabajo, como cuando apareció Internet. Pero se crearon nuevos puestos, mejores incluso, de forma que el trabajador ha podido asumirlos e ir avanzando mucho mejor que en los que han desaparecido», comentó Salazar, asegurando que al aplicar la IA también «se necesitará una capacidad de adaptación a los cambios».

Malos usos

Respecto a los malos usos intencionados, Salazar asumió que todas las tecnologías de gran impacto tienen «su lado negativo, que suele ser de igual proporción que las ventajas». En este sentido, alertó de que con el uso de la IA en los ataques cibernéticos, en el terrorismo o en la creación de fake news en eventos importantes, estos pueden tener «un mayor impacto».

En este sentido, la utilización de la IA en conflictos bélicos, especialmente para la creación de armas autónomas letales, es uno de los asuntos que más preocupa a la opinión pública y a la comunidad internacional. En relación a esto, Salazar comentó que esta utilización ha sido prohibida a nivel europeo y que ya hay algunas organizaciones trabajando en un tratado internacional para «prohibir los llamados robots asesinos».

«Pero si esta tecnología es capaz de tomar decisiones autónomas en un campo que da tanto dinero, por mucho que se diga que no se puede, ya habrá organizaciones pensando como hacerlo», puntualizó.

La privacidad de los datos

La IA funciona sobre todo gracias a los datos de propiedad. Por ello, actualmente, esta tecnología está dominada por unas pocas empresas digitales, como Google, Apple, Facebook, Amazon o Microsoft y varias compañías chinas. Salazar indicó que esto puede llevar a un oligopolio en el sector y a «una concentración del poder y la riqueza».

Por ello, el de la privacidad de los datos y la transparencia en el uso de estos fue otro tema que colocó sobre la mesa.

Teniendo en cuenta todos los riesgos que expuso, Salazar sostuvo que el futuro de la IA está «en nuestras manos». «Ahora tenemos la capacidad de decidir hacia dónde queremos que se encamine esta tecnología: hacia una sustitución del ser humano o hacia un acompañamiento para complementarnos y hacer nuestra vida más fácil, aumentando la eficiencia en los procesos y aumentando la productividad», subrayó.

Ademas de tratados internaciones, Salazar destacó la necesidad de que los gobiernos y otras instituciones se impliquen en el desarrollo de la IA teniendo en cuenta las diferentes realidades socioculturales de cada lugar. Llegados a este punto, también insistió en que hay que tratar este tema en la enseñanza.