Iker Bizkarguenaga
Aktualitateko erredaktorea / Redactor de actualidad

¿Toxinas por encargo? Parece descabellado, y sin embargo...

Un grupo de investigadores hizo uso de la inteligencia artificial para diseñar versiones digitales de toxinas y probar los filtros de seguridad de algunas empresas que sintetizan ADN. Los programas fallaron a la hora de detectar secuencias peligrosas.

Modelo informático de una molécula de la proteína tóxica ricina
Modelo informático de una molécula de la proteína tóxica ricina (Kateryna KON | Science Photo Library | AFP)

A medida que la inteligencia artificial (IA) se asienta como uno de los avances más disruptivos de las últimas décadas y sus aplicaciones crecen en progresión geométrica, se multiplican también las dudas y prevenciones sobre aquellas que podrían implicar algún tipo de riesgo. Porque, la historia es testigo de ello, todo salto científico o tecnológico tiene su cara y su cruz.

Un estudio publicado en ‘Science’ ha llamado la atención, en este sentido, sobre las posibles implicaciones del uso de la IA en biotecnología y, en concreto, en el diseño y desarrollo de armas biológicas. Según el artículo, un grupo de investigadores de Microsoft liderados por el bioingeniero Bruce Wittmann, especializado en el uso de la inteligencia artificial para diseñar proteínas que podrían ayudar a combatir enfermedades o cultivar alimentos, utilizaron esa herramienta para generar los mapas digitales de proteínas capaces de imitar algunos de los venenos más letales que se conocen, como la ricina, la toxina botulínica y la Shiga.

Su objetivo, claro, no era crear esas toxinas potencialmente letales, sino saber qué pasaría si encargaran las secuencias de ADN que codifican estas proteínas a empresas que sintetizan ácidos nucleicos. Buscaban en definitiva testar los mecanismos de seguridad que impiden que puedan fabricarse armas biológicas a través de biotecnología de última generación.

Los investigadores denominaron al experimento ejercicio de «equipo rojo», término militar que hace referencia a las pruebas en las que un grupo simula un ataque para detectar debilidades en sus sistemas de defensa, y buscaron puntos débiles en las prácticas de bioseguridad en la cadena de ingeniería de proteínas.

Por seguridad, tanto el equipo científico como ‘Science’ han ocultado los detalles técnicos del experimento y de los cambios realizados. El acceso se limitará a especialistas acreditados bajo supervisión del International Biosecurity and Biosafety Initiative for Science (IBBIS). 

En el ejercicio contaron con la colaboración de muchos expertos en bioseguridad y, según se advierte en la noticia publicada en Science, «falló una barrera de seguridad clave». Las compañías proveedoras de ADN, explican los autores, suelen utilizar software de detección para señalar secuencias que podrían utilizarse para provocar algún daño. Sin embargo, en este caso el software no detectó muchos de los genes diseñados por la IA. De hecho, una herramienta pasó por alto más del 75% de las toxinas potenciales.

Los científicos que participaron en el ejercicio mantuvieron estas vulnerabilidades en secreto, por razones obvias, hasta que se actualizó el software de detección, pero incluso ahora, alertan, el sistema de seguridad no es infalible.

72 proteínas, 70.000 secuencias

Los investigadores de Microsoft seleccionaron 72 proteínas diferentes que están sujetas a controles legales, como la ricina, una toxina bacteriana que ya se ha utilizado en varios atentados. Por ejemplo, se detectaron trazas de ricina en cartas enviadas a altos funcionarios estadounidenses en 2013 y 2018. Utilizando herramientas especializadas de diseño de proteínas con IA, Wittmann creó más de 70.000 secuencias de ADN que generarían formas variantes de estas proteínas, y los modelos informáticos sugirieron que al menos algunas de estas alternativas también serían tóxicas. «El conocimiento al que tenía acceso y la responsabilidad sobre estas proteínas suponían, a nivel humano, una carga notable», afirma el responsable del estudio.

El equipo de Wittmann no creó realmente las proteínas ni las sometió a pruebas de toxicidad; para ello habría tenido que encargar los genes a proveedores de ADN e insertarlos en bacterias o levaduras para producir las proteínas de interés. Y hacerlo podría considerarse una violación de la Convención sobre Armas Biológicas, que prohíbe el desarrollo o la producción de este tipo de armas. En su lugar, pidió a cuatro proveedores de sistemas de detección de bioseguridad utilizados por los laboratorios de síntesis de ADN que ejecutaran estas secuencias en su software. Las herramientas no detectaron muchas de estas secuencias como problemáticas.

Las toxinas más potentes de la naturaleza pueden proceder de plantas, líquidos segregados y de mecanismos de autodefensa en reptiles con propiedades alucinógenas. La estricnina, la maitotoxina, la batracotoxina, la ricina y la toxina botulínica son algunas de las más peligrosas.

Su rendimiento varió mucho. Una herramienta solo detectó el 23% de las secuencias, menos de una cuarta parte. Otra de las herramientas marcó el 70% de las secuencias, y su desarrollador decidió no realizar ningún cambio para mejorar el software. Argumentó que un mecanismo que detectara todas las secuencias potencialmente peligrosas probablemente también marcaría las inocuas, lo que crearía problemas y aumentaría los costes.

Los demás proveedores sí hicieron actualizaciones, en un proceso que duró unos meses. «Todos guardamos silencio al respecto», dice en el artículo Jaime Yassif, vicepresidenta de políticas y programas biológicos globales en The Nuclear Threat Initiative (NTI). «Fue –añade– un buen ejemplo de la gran responsabilidad de la comunidad». Tras las actualizaciones, los sistemas de detección marcaron, de media, el 72% de las secuencias generadas por la IA de Wittmann, incluido el 97% de las secuencias que los modelos consideraban más propensas a generar toxinas.

Cada vez más complejo

Los autores del estudio, con el consentimiento de Science, están ocultando detalles sobre las secuencias de ADN generadas por IA y las correcciones de software de la industria. Habrá un «acceso controlado» a esta información, afirma Tessa Alexanian, del International Biosecurity and Biosafety Initiative for Science (IBBIS), una organización sin ánimo de lucro que ha desarrollado uno de los cuatro sistemas de software de detección. Sus expertos revisarán las solicitudes de acceso a la información.

Yassif afirma en ‘Science’ que este estudio es un modelo válido para preparar el futuro. «Esto es solo el principio», señala. «Las capacidades de la IA van a evolucionar y serán capaces de diseñar sistemas vivos cada vez más complejos, y nuestras capacidades de detección de síntesis de ADN tendrán que seguir evolucionando para mantenerse al día», indica a este respecto.

En declaraciones a Science Media Centre recogidas por wired.com, Alfonso Valencia, director de Ciencias de la Vida en el Centro Nacional de Supercomputación de Barcelona (BSC), corrobora que «la capacidad de los sistemas de IA generativa para elaborar proteínas completamente nuevas, con secuencias y funciones distintas a las naturales, ha revolucionado la biotecnología y sus aplicaciones, incluyendo las biomédicas, como el diseño de nuevos anticuerpos». Un avance «muy positivo», pero que «conlleva un riesgo: la posibilidad de generar proteínas peligrosas». «Lo primero que viene a la mente es una variante más infecciosa del coronavirus», apunta. Destaca que los autores no hayan difundido su software abiertamente, «para evitar que otros puedan desarrollar contramedidas y eludir las restricciones». A su juicio, «esto es una prueba más de la debilidad de este tipo de aproximaciones y de la enorme dificultad que existe para controlar las propiedades de los datos sintéticos producidos por los métodos de IA generativa».

Con todo, el software de detección no es la única herramienta de bioseguridad que hay que reforzar, advierte la responsable del NTI. Y es que algunos proveedores de ADN, que representan en torno al 20% del mercado, no hacen ningún tipo de controles a sus pedidos. También sostiene que se deben incorporar medidas de seguridad adicionales en las propias herramientas de diseño de proteínas de IA.

En el trabajo se recuerda, por otra parte, que de momento hay pocos indicios de que haya personas o grupos que traten de conseguir ADN sintético ilegal con este objetivo. «Llevo 10 años haciendo esto y las veces que hemos tenido que pasar un caso a la policía se pueden contar con los dedos de una mano», dice James Diggans, vicepresidente de política y bioseguridad de Twist Bioscience, una empresa de síntesis de ADN. «El número real de personas que intentan hacer un uso indebido puede ser muy cercano a cero», apostilla.

Por su parte, Drew Endy, investigador de biología sintética de la Universidad de Stanford, señala que mejorar el software de detección está bien, pero cree que este ejercicio consume demasiada atención en comparación con un riesgo de bioseguridad mucho mayor: la posible operación de programas clandestinos de armas biológicas por parte de ciertos países.

«Ojalá la gente despertara un poco», afirma en este sentido, y añade que «hoy en día, las naciones se acusan mutuamente de tener programas ofensivos de armas biológicas. Nosotros acusamos a Rusia y Corea del Norte. China y Rusia acusan a Estados Unidos. Este es el patrón histórico que se repitió hace 100 años y que condujo a la creación de programas reales de armas biológicas». Concluye, por tanto, que «debemos rebajar la tensión».