Lo que debes de saber
- Collin Burns, investigador de Anthropic, fue nombrado director del Centro de Estándares e Innovación en IA del Departamento de Comercio y despedido 96 horas después.
- El Washington Post reporta que la salida fue una ‘petición directa’ de la Casa Blanca, sin explicación pública hasta ahora.
- El caso evidencia la falta de consenso interno en EU sobre cómo regular la inteligencia artificial mientras empresas como OpenAI y Google presionan desde ambos lados.
- La duración del cargo de Burns es más corta que el periodo de prueba de un empleado de mostrador en el Buen Fin.

Cuatro días de gloria (y después, el olvido)
El gobierno de Estados Unidos acaba de establecer un récord que ni siquiera intentaba romper: Collin Burns, investigador de la empresa de inteligencia artificial Anthropic, duró exactamente cuatro días como director del Centro de Estándares e Innovación en IA del Departamento de Comercio. Sí, leyó bien: cuatro días. Menos tiempo del que dura una semana laboral en México, menos de lo que tarda en caducar una promesa de campaña. Según reporta The Washington Post, la salida de Burns no fue una renuncia discreta ni un acuerdo mutuo: fue una patada directa desde la Casa Blanca, que pidió su cabeza antes de que siquiera hubiera aprendido los nombres de sus compañeros de oficina.
«La Casa Blanca pidió al Departamento de Comercio que despidiera a Burns apenas cuatro días después de que su contratación fuera anunciada», señala el reportaje del Washington Post, citando fuentes familiarizadas con el asunto.
Lo más grotesco del caso no es la duración del cargo —que ya de por sí parece un chiste de mal gusto— sino lo que revela sobre el estado actual de la política de inteligencia artificial en Estados Unidos. Por un lado, la administración Biden lleva meses prometiendo un enfoque «responsable» y «centrado en el ser humano» para regular la IA. Por el otro, despacha a uno de los pocos expertos técnicos que habían logrado colocar en una posición clave, justo cuando el Congreso debate leyes que definirán el futuro de la tecnología. Es como si un cardiólogo renombrado fuera echado del hospital porque al director no le gustó su corbata.
¿Conflicto de intereses o simple torpeza?
La versión no oficial, que ha circulado en medios como Dnyuz, sugiere que el problema fue la cercanía de Burns con Anthropic, la empresa que cofundó y de la que seguía siendo accionista. En teoría, nombrar a alguien con vínculos tan estrechos con una compañía de IA para dirigir un centro de estándares —es decir, el organismo que definirá las reglas del juego— olía a conflicto de intereses desde el principio. Pero aquí viene lo interesante: ese mismo argumento podría aplicarse a media docena de funcionarios actuales que llegaron al gobierno desde Google, Microsoft o Meta sin que nadie les pidiera la renuncia. ¿Por qué con Burns sí?
La respuesta probable es más política que técnica. Anthropic se ha posicionado como la «empresa buena» de la IA, la que dice priorizar la seguridad sobre las ganancias, en contraste con OpenAI o Google DeepMind. Pero esa imagen de santidad también genera enemigos. Dentro de la Casa Blanca hay facciones que ven con recelo a cualquier persona que haya trabajado en una empresa de IA, sin importar su postura ética. Y otras facciones, más cercanas a la industria, prefieren tener a alguien menos calificado pero más manejable. Burns, con su currículum técnico impecable y su independencia intelectual, no encajaba en ningún bando.
El costo de la parálisis regulatoria
Mientras tanto, la inteligencia artificial avanza a un ritmo que ningún gobierno puede seguir. Cada semana aparece un nuevo modelo, una nueva aplicación, una nueva promesa de transformar la economía o destruir empleos. Y Estados Unidos, que debería estar marcando la pauta global en regulación, está atrapado en una lucha interna entre el ala que quiere regular ya, el ala que quiere esperar y el ala que quiere que la industria se autorregule (que es como pedirle al zorro que cuide las gallinas). El caso Burns es un síntoma de esa parálisis: no pueden ponerse de acuerdo ni siquiera en quién debe ocupar un puesto que ellos mismos crearon.
Para México, que observa desde la barrera mientras define su propia estrategia de IA, el ejemplo es aleccionador. Si la potencia hegemónica del mundo no puede mantener a un funcionario cuatro días sin que se arme un escándalo, ¿qué podemos esperar nosotros? La tentación de copiar el modelo estadounidense es grande, pero quizá deberíamos pensarlo dos veces antes de importar también sus contradicciones. Al final, la inteligencia artificial no entiende de fronteras ni de burocracias: solo entiende de datos, algoritmos y, sobre todo, de quién pone las reglas.


