Lo que debes de saber
- OpenAI concederá a la UE acceso a su modelo de ciberseguridad GPT-5.5-Cyber, mientras Anthropic aún no libera su polémico Mythos al bloque.
- Anthropic limitó Mythos a 12 empresas tecnológicas estadounidenses y 40 organizaciones no identificadas, dejando fuera a las agencias cibernéticas europeas.
- Solo la agencia de ciberseguridad de Alemania logró entablar conversaciones con Anthropic, sin haber probado el modelo aún.
- El Reino Unido sí tuvo acceso anticipado a Mythos y ya publicó una evaluación, evidenciando la fragmentación regulatoria global.

Dos caras de una misma moneda
La semana pasada, dos gigantes de la inteligencia artificial tomaron caminos opuestos frente a la regulación europea. Mientras OpenAI anunciaba que daría acceso a la Unión Europea a su nuevo modelo de ciberseguridad, Anthropic mantenía su polémico modelo Mythos fuera del alcance del bloque. La noticia, reportada por CNBC, no es solo una disputa comercial: es un termómetro de cómo se está configurando el poder en la era de la inteligencia artificial.
OpenAI, respaldada por Microsoft, ofreció a la Comisión Europea acceso a GPT-5.5-Cyber, una versión especializada de su último modelo. Según Seeking Alpha, la compañía ya había comenzado a distribuirlo la semana pasada a equipos de ciberseguridad seleccionados. El gesto, aunque calculado, contrasta con la postura de su competidor directo.
«AI labs like ours shouldn’t be the sole arbiters of cyber safety as resilience depends on trusted partners working together», declaró George Osborne, jefe de OpenAI para Países, en un comunicado citado por CNBC.

Mythos: el modelo que nadie quiere soltar
Anthropic lanzó Mythos hace un mes, y desde entonces ha desatado una ola de preocupación. Según POLITICO Europe, el modelo supera a la mayoría de los humanos en encontrar y explotar vulnerabilidades técnicas. La compañía limitó su acceso a 12 empresas tecnológicas —todas estadounidenses, incluyendo Apple, Microsoft y Amazon— y a otras 40 organizaciones que no han sido reveladas.
Mientras tanto, la Unión Europea sigue esperando. El portavoz de la Comisión, Thomas Regnier, confirmó que han tenido «cuatro o cinco» reuniones con Anthropic, pero que las discusiones están en una «etapa diferente» a las de OpenAI. La frase diplomática esconde una realidad incómoda: Europa no tiene poder para exigir acceso a una tecnología que podría comprometer sus infraestructuras críticas.
El mapa de la exclusión
POLITICO Europe habló con funcionarios de ocho agencias cibernéticas nacionales europeas. Solo la agencia alemana dijo haber entablado conversaciones con Anthropic, y ni siquiera ha podido probar el modelo. El resto, en la más absoluta oscuridad. El contraste con el Reino Unido es brutal: según Bloomberg, el ministro de IA británico confirmó que su instituto de seguridad ya probó Mythos y tomó medidas.
Daniel Privitera, fundador de la ONG alemana KIRA, lo resumió así en declaraciones a POLITICO Europe: «Mythos nos da un anticipo de lo crucial que será el acceso a las capacidades de IA fronteriza en los próximos años… Europa actualmente no tiene un plan para asegurar ese acceso». La frase duele porque es cierta.

El árbitro es el jugador
Yoshua Bengio, uno de los tres padrinos de la inteligencia artificial, calificó la situación como «profundamente preocupante» en entrevista con POLITICO Europe. Que sean las empresas tecnológicas, y no los reguladores, quienes decidan cómo manejar los riesgos, demuestra lo «esencial» que es establecer mecanismos de verificación independientes.
La paradoja es evidente: las mismas compañías que desarrollan la tecnología más poderosa son las que deciden quién puede revisarla. Es como si el árbitro de un partido también jugara en el equipo contrario. Y mientras tanto, el mundo sigue sin un sistema global para abordar los riesgos de la IA, a pesar de las advertencias repetidas sobre sus consecuencias económicas, laborales y existenciales.
OpenAI, por su parte, ha sabido jugar sus cartas. Al ofrecer acceso a la UE, se posiciona como el «bueno» de la película, mientras que Anthropic carga con la culpa de la exclusión. Pero no nos engañemos: ambos modelos son armas de doble filo, y la diferencia entre uno y otro puede ser solo de estrategia de relaciones públicas.
La pregunta que queda flotando es incómoda: ¿qué pasa cuando la tecnología más peligrosa del mundo se decide en una junta de accionistas, y no en un congreso? La respuesta, por ahora, es que Europa se queda mirando desde la banqueta.


