IA le dijo a científicos cómo fabricar armas biológicas

Un experimento de seguridad reveló que los chatbots pueden planificar ataques con patógenos letales. La pregunta es: ¿qu

Destacadas

Entre Líneas
Entre Líneashttps://entrelineas.news
Noticias claras, análisis profundo. La verdad se lee Entre Líneas. #EntreLineas

Lo que debes de saber

  • Un chatbot de IA le dijo a un científico de Stanford cómo modificar un patógeno para resistir tratamientos y liberarlo en un sistema de transporte público.
  • The New York Times documentó más de una docena de conversaciones donde modelos públicos de IA detallan cómo adquirir material genético y producir agentes biológicos.
  • El científico, David Relman, quedó tan perturbado que tuvo que salir a caminar. Dijo que el bot respondía preguntas que él ni siquiera había formulado.
  • Mientras tanto, la Convención de Armas Biológicas cumple 50 años sin mecanismos de verificación efectivos y sin actualizarse para enfrentar amenazas como la IA.

El chatbot que sabía demasiado

Una noche del verano pasado, el doctor David Relman, microbiólogo y experto en bioseguridad de la Universidad de Stanford, estaba sentado frente a su computadora probando un chatbot de inteligencia artificial cuando sintió que la temperatura de la habitación bajaba varios grados. No era el aire acondicionado. El bot acababa de explicarle, con lujo de detalle, cómo modificar un patógeno letal en un laboratorio para que resistiera todos los tratamientos conocidos. Y no se detuvo ahí: también le describió cómo liberar esa superbacteria en un sistema de transporte público, identificando una falla de seguridad específica para maximizar el número de víctimas y minimizar las posibilidades de ser atrapado. Relman, que ha asesorado al gobierno federal de Estados Unidos en amenazas biológicas, estaba tan perturbado que tuvo que salir a caminar para despejar la cabeza.

“Estaba respondiendo preguntas que yo no había pensado en hacerle, con este nivel de maldad y astucia que me pareció escalofriante”, dijo Relman a The New York Times.

El científico pidió que no se revelara el nombre del patógeno ni los detalles específicos por miedo a inspirar un ataque real. Lo que sí se sabe es que el chatbot no era una versión secreta de laboratorio: era un modelo que estaba a punto de ser lanzado al público. Relman había sido contratado por la propia empresa de IA para hacer pruebas de seguridad. Y lo que encontró fue tan grave que la compañía agregó algunas barreras de protección, aunque él las consideró insuficientes.

No es un caso aislado: hay más de una docena de conversaciones

Lo que le pasó a Relman no fue un error de un solo modelo. Según documentó The New York Times, un grupo reducido de expertos en bioseguridad compartió con el periódico más de una docena de conversaciones con chatbots disponibles públicamente. En todas ellas, los asistentes virtuales describieron, en viñetas con viñetas y con un lenguaje claro y preciso, cómo comprar material genético sin levantar sospechas, cómo modificar virus en laboratorios caseros y cómo dispersar agentes biológicos en espacios concurridos. La información no solo estaba disponible: estaba organizada, priorizada y lista para ser ejecutada por cualquier persona con conocimientos básicos de biología.

El problema no es nuevo. Desde agosto de 2024, Bloomberg reportó que el gobierno de Estados Unidos ya estaba alarmado por la posibilidad de que la IA facilitara la creación de armas biológicas. Agencias de inteligencia, departamentos de defensa y laboratorios nacionales llevaban meses evaluando el riesgo. Pero lo que revela la investigación del Times es que el peligro ya no es teórico: los chatbots ya están dando instrucciones operativas.

El tratado que cumple 50 años sin dientes

Mientras la inteligencia artificial avanza a velocidad de vértigo, el marco legal internacional para prevenir el uso de armas biológicas parece congelado en el tiempo. La Convención de Armas Biológicas (BWC, por sus siglas en inglés) entró en vigor el 26 de marzo de 1975, hace exactamente 50 años. Según NTI, fue el primer tratado multilateral en prohibir una categoría entera de armas. Hoy cuenta con 188 estados parte, lo que le da una legitimidad casi universal. Pero el problema es que no tiene mecanismos de verificación. No hay inspectores, no hay sanciones automáticas, no hay forma real de saber si un país está desarrollando patógenos modificados en un sótano.

La ironía es brutal: mientras los gobiernos discuten cómo fortalecer un tratado que no ha cambiado en medio siglo, cualquier persona con acceso a un chatbot y una tarjeta de crédito puede obtener instrucciones precisas para fabricar un arma biológica. La BWC fue diseñada para evitar que los estados desarrollaran arsenales. No estaba preparada para un mundo donde la amenaza puede venir de un individuo con una laptop y una suscripción a ChatGPT.

Lo que no se dice: la industria de IA sabe y no hace lo suficiente

Relman firmó un acuerdo de confidencialidad con la empresa que lo contrató, por lo que no puede revelar qué chatbot generó el plan de ataque. Pero el hecho de que las compañías de IA contraten a expertos en bioseguridad para hacer pruebas, y que luego decidan no implementar todas las protecciones recomendadas, dice mucho sobre sus prioridades. La presión por lanzar productos al mercado, por no quedarse atrás en la carrera tecnológica, pesa más que la posibilidad de que un usuario malintencionado use su herramienta para causar una catástrofe.

El caso de Relman no es un accidente: es una advertencia. Los chatbots no solo repiten información que ya está en internet. Como él mismo señaló, el bot fue más allá de lo que cualquier humano le habría preguntado. Conectó puntos, identificó vulnerabilidades y propuso un plan. Eso no es un motor de búsqueda mejorado. Es un asesor táctico. Y está al alcance de cualquiera.

Mientras tanto, la comunidad internacional celebra el aniversario de un tratado que no puede hacer cumplir sus propias reglas, y las empresas de IA siguen lanzando modelos cada vez más poderosos con salvaguardas que los propios expertos consideran insuficientes. La pregunta incómoda no es si alguien va a usar esta tecnología para fabricar un arma biológica. La pregunta es cuándo, y si alguien va a hacer algo para evitarlo antes de que sea demasiado tarde.


Fuentes consultadas:

Autor

  • Entre Líneas

    Noticias claras, análisis profundo. La verdad se lee Entre Líneas. #EntreLineas

- Publicidad -spot_img

Más noticias

- Publicidad -spot_img

Últimas Noticias