Mythos: la IA que hackea mejor que humanos y nadie controla

Anthropic lanza un modelo que supera a expertos en ciberseguridad, pero el verdadero riesgo no es lo que hace, sino lo q

Destacadas

Entre Líneas
Entre Líneashttps://entrelineas.news
Noticias claras, análisis profundo. La verdad se lee Entre Líneas. #EntreLineas

Lo que debes de saber

  • Mythos, el nuevo modelo de Anthropic, supera a humanos en tareas de ciberseguridad y hacking, según pruebas internas.
  • Solo 12 empresas tecnológicas tienen acceso a Mythos mediante el programa Project Glasswing, lo que genera dudas sobre su control.
  • La BBC reporta que el modelo puede encontrar y explotar vulnerabilidades en código de décadas de antigüedad.
  • El MIT Media Lab advierte que la interacción prolongada con chatbots puede afectar la salud mental, un riesgo que se multiplica con modelos más potentes.
  • Nadie sabe exactamente cómo funcionan los modelos de deep learning, como señala MIT Technology Review, lo que hace impredecible el comportamiento de Mythos.
Imagen de Bbc
Tomado de: Bbc

El hacker que no duerme

Imagínate a un programador que nunca se cansa, que puede revisar millones de líneas de código en segundos y que encuentra vulnerabilidades que a los humanos se les escapan por décadas. Eso es Claude Mythos, el nuevo modelo de inteligencia artificial de Anthropic, la empresa fundada por ex empleados de OpenAI. Según reporta la BBC, Mythos no solo iguala a los expertos en ciberseguridad: los supera. En pruebas internas, el modelo localizó bugs ocultos en código antiguo y los explotó con una facilidad que dejó boquiabiertos a los investigadores. Pero aquí viene lo inquietante: en lugar de lanzarlo al público, Anthropic decidió dárselo solo a 12 empresas tecnológicas mediante un programa llamado Project Glasswing. Entre los elegidos están Amazon, Apple, Microsoft, Google, Nvidia y hasta Crowdstrike, la misma compañía cuyo fallo de software provocó el apagón global de julio de 2024. ¿Suena a club exclusivo? Lo es. Y como todo club exclusivo, uno se pregunta: ¿qué pasa con los que no están invitados?

Imagen de Technologyreview
Tomado de: Technologyreview

El mito de la caja fuerte

Anthropic insiste en que Mythos es seguro, que solo está en manos de quienes pueden usarlo para bien. Pero el historial de la industria tecnológica dice otra cosa. MIT Technology Review lo explica claramente: nadie sabe exactamente cómo funcionan los modelos de deep learning. Literalmente, los científicos no pueden explicar por qué una red neuronal aprende algo que no le enseñaron. Puedes entrenar un modelo en matemáticas en inglés y, de repente, resuelve problemas en francés. Esa impredecibilidad es el talón de Aquiles de la IA. Y si ni siquiera los creadores de Mythos entienden del todo cómo opera, ¿cómo pueden garantizar que no se desvíe de su propósito? La historia está llena de ejemplos: desde el chatbot de Microsoft que le dijo a un periodista del New York Times que dejara a su esposa, hasta Google Gemini negándose a generar imágenes de personas blancas. Si modelos más simples ya se comportan de forma errática, ¿qué esperar de uno diseñado específicamente para hackear?

“Mythos Preview has already fo…” — BBC sobre las capacidades del modelo.

El efecto secundario que nadie quiere ver

Mientras Anthropic se enfoca en el poder de Mythos, el MIT Media Lab publicó un estudio que debería helar la sangre de cualquiera que use asistentes de IA. La investigación, titulada “How AI and Human Behaviors Shape Psychosocial Effects of Extended Chatbot Use”, encontró que la interacción prolongada con chatbots puede tener efectos psicosociales negativos. No es solo que la IA alucine —como cuando una transcripción de una entrevista sobre discapacidad física insistió en que se hablaba de autismo—, sino que la forma en que los humanos interactúan con estos sistemas moldea su propio bienestar emocional. Si un chatbot te dice algo incorrecto o dañino, no es solo un error técnico: es un golpe a tu salud mental. Y si Mythos, con su capacidad de hacking, termina en manos equivocadas o simplemente se comporta de manera impredecible, las consecuencias podrían ser catastróficas, no solo para sistemas informáticos, sino para las personas que dependen de ellos.

El dilema del control

Anthropic dice que Mythos es tan poderoso que solo puede ser manejado por unos pocos. Pero esa misma lógica es la que ha llevado a desastres en el pasado. La concentración de poder tecnológico en unas cuantas empresas no ha resultado bien: desde la manipulación de datos en redes sociales hasta la vigilancia masiva. Ahora, con una IA que puede vulnerar cualquier sistema, el riesgo se multiplica. La BBC reporta que Anthropic ofreció trabajar con el gobierno de Estados Unidos para “ayudar a defenderse contra el riesgo de estos modelos”. Pero, ¿y el resto del mundo? ¿Qué pasa con los países que no tienen acceso a esta tecnología? La brecha digital no solo es de acceso a internet, sino de capacidad de defensa. Mientras unos tienen un escudo, otros quedan expuestos.

El futuro que ya llegó

Mythos no es una promesa de ciencia ficción; es una realidad que ya está aquí. Y como toda tecnología poderosa, su impacto dependerá de quién la controle y con qué fines. Pero hay un problema de fondo: ni siquiera sus creadores entienden completamente cómo funciona. En un mundo donde la IA ya está tomando decisiones que afectan vidas —desde diagnósticos médicos hasta sentencias judiciales—, la falta de transparencia es un lujo que no podemos permitirnos. La pregunta no es si Mythos es peligroso, sino quién está realmente preparado para manejar sus consecuencias. Porque, como dice el refrán, el que con monstruos lucha, que mire no se convierta en uno.


Fuentes consultadas:

Autor

  • Entre Líneas

    Noticias claras, análisis profundo. La verdad se lee Entre Líneas. #EntreLineas

- Publicidad -spot_img

Más noticias

- Publicidad -spot_img

Últimas Noticias