inteligencia artificial, virus
08 octubre 2025.- Por primera vez, los investigadores han creado nuevos virus utilizando IA. La esperanza es que la tecnología se pueda utilizar para crear fagos dirigidos que eliminen bacterias problemáticas, matando selectivamente una cepa resistente a los antibióticos que infecta a una persona, por ejemplo. "Esta es la primera vez que los sistemas de IA pueden escribir secuencias coherentes a escala del genoma", dijo a Nature Brian Hie, coautor de la preimpresión que informa sobre los nuevos genomas.
Para generar nuevos genomas virales, los investigadores alimentaron el genoma real de ΦX174, un virus simple que mata bacterias, a dos modelos de IA: Evo 1 y Evo 2, que analizan y generan secuencias genéticas, luego del entrenamiento en dos millones de genomas de fagos similares. El equipo dijo a los modelos que crearan genomas para virus capaces de matar a Escherichia coli resistente a los antibióticos. De los miles de genomas que produjeron los modelos, el equipo se centró en poco más de 300 para sintetizar e infectar bacterias. De ellos, 16 infectaron E . coli selectivamente; ciertas combinaciones de ellos pudieron eliminar tres cepas de la bacteria contra las que ΦX174 era impotente.
Ahora, los modelos no están listos para hacer genomas completos por sí mismos: el equipo necesitaba darles una plantilla para guiarlos y examinar los muchos genomas no tan estelares que diseñaron. Después de todo, al igual que con los grandes modelos de lenguaje, Evo 1 y Evo 2 a veces alucinan, dijo Hie a IFLScience. Aún así, algunos han levantado banderas rojas sobre este último desarrollo. " No estamos ni cerca de estar listos para un mundo en el que la inteligencia artificial pueda crear un virus que funcione", escribieron Tal y Jonathan Feldman en un artículo de opinión para The Washington Post . Incluso la preimpresión aborda algunas preocupaciones de bioseguridad.
"En este estudio, nuestro enfoque de bioseguridad y biocontención aprovechó las salvaguardas computacionales inherentes a nuestros modelos, opciones de diseño experimental y protocolos de contención de laboratorio establecidos", explicaron los autores. Los modelos no fueron entrenados con virus que pueden infectar a las personas, por ejemplo. Pero los Feldman se preguntan: "¿Qué impide que otros usen datos abiertos sobre patógenos humanos para construir sus propios modelos?"
"No hay forma de endulzar los riesgos", afirman los Feldman, y agregan que "las mismas técnicas podrían usarse con la misma facilidad para crear virus letales para los humanos, convirtiendo un avance de laboratorio en una amenaza para la seguridad global".
Y la preocupación no es solo por la amenaza potencial de nuevos virus. "El siguiente paso es la vida generada por IA", dijo Hie a Nature.
Es imperativo que se desarrollen nuevas formas de detectar peligros potenciales, escribieron Bruce Wittmann y sus colegas en la edición más reciente de Science. Si bien su trabajo se centró en las proteínas tóxicas, su punto se mantiene cuando se trata de virus y organismos vivos. "A largo plazo, es poco probable que la detección de bioseguridad basada en secuencias por sí sola siga siendo suficiente", escribieron. "En consecuencia, aunque los esfuerzos para mejorar el software de detección de peligros basado en secuencias deben continuar, también debemos continuar con el desarrollo de nuevos enfoques".
Fuente: Science

COMENTARIOS