Hay descubrimientos que nacen con una doble cara. El mismo algoritmo capaz de diseñar una proteína que cure el cáncer puede, en manos equivocadas, fabricar una toxina letal. Esa es la paradoja de nuestro tiempo: cuanto más poderosa se vuelve la inteligencia artificial, más difusa resulta la frontera entre el progreso y el peligro. Las proteínas son el nuevo terreno de esa tensión. Su diseño mediante IA ha abierto posibilidades médicas impensables, pero también un riesgo que preocupa a los expertos en seguridad biológica.
Un reciente estudio financiado por Microsoft ha puesto cifras a esa preocupación. Liderado por Bruce Wittmann, el proyecto tenía un propósito claro: comprobar hasta qué punto los sistemas de detección actuales pueden evitar que la IA se utilice para crear toxinas reguladas internacionalmente. El equipo generó versiones digitales de proteínas prohibidas —entre ellas la ricina y la toxina Shiga— utilizando herramientas de modelado disponibles en el mercado. Su objetivo no era producir las sustancias, sino probar los límites de los filtros de seguridad que emplean las empresas de ADN sintético para impedir pedidos peligrosos.
Los resultados, publicados este mes, son inquietantes. El equipo de Wittmann generó más de 70.000 secuencias basadas en 72 proteínas clasificadas como de alto riesgo. Luego las envió a distintos sistemas de verificación que utilizan las compañías biotecnológicas para filtrar secuencias prohibidas. El resultado fue un fallo masivo: algunos programas solo detectaron el 23 % de las secuencias peligrosas, y los más avanzados apenas alcanzaron un 70 % de eficacia. En otras palabras, una parte sustancial de los intentos de síntesis podría haber pasado inadvertida.
El estudio subraya que no se sintetizó físicamente ninguna de las proteínas generadas. Sin embargo, la demostración es suficiente para encender las alarmas. Si los investigadores, trabajando dentro de un marco ético y con permisos de seguridad, lograron burlar los filtros con relativa facilidad, es razonable pensar que grupos sin escrúpulos podrían hacerlo también. En un momento en que la biología sintética es cada vez más accesible —basta un ordenador, conexión a Internet y una empresa que fabrique ADN bajo demanda—, el riesgo deja de ser teórico para convertirse en una posibilidad tangible.
Tras conocerse los resultados, varias empresas del sector anunciaron mejoras en sus algoritmos de detección, aunque no todas reaccionaron del mismo modo. Algunas temen que reforzar los filtros pueda derivar en falsos positivos que obstaculicen la investigación legítima. Aun así, las pruebas posteriores elevaron la tasa de detección al 72 %, un progreso modesto pero significativo. Los autores del estudio insisten en que el problema no es la existencia de IA avanzadas, sino la falta de coordinación global para regular su uso en biología computacional.
Expertos como Jaime Yassif, de la Nuclear Threat Initiative, y Drew Endy, profesor de bioingeniería en Stanford, han advertido de que los sistemas de control avanzan demasiado despacio frente a la velocidad de la IA. Yassif recuerda que cerca del 20 % de las compañías de ADN sintético en el mundo ni siquiera aplica controles sistemáticos sobre los pedidos que recibe, lo que deja abiertas vías de explotación. Endy, por su parte, subraya la dimensión geopolítica del problema: un fallo en la bioseguridad no sería un incidente local, sino una amenaza global.
El trabajo de Microsoft es, en última instancia, una advertencia. En la carrera por dominar la biología digital, los modelos de inteligencia artificial se han convertido en aliados imprescindibles, pero también en posibles armas. Las proteínas creadas por IA podrían salvar millones de vidas, o ponerlas en riesgo si se usan sin control. La ciencia ha aprendido a diseñar la vida con una precisión inédita; ahora debe aprender a protegerla de sí misma. Porque en el laboratorio del futuro, la línea entre creación y destrucción puede escribirse con una simple línea de código.
Más información
La entrada Cuidado con las proteínas creadas por la IA se publicó primero en MuyComputer.