Lo que debes de saber
- David Silver, el genio detrás de AlphaGo, fundó Ineffable Intelligence con 1,100 mdd para crear ‘superlearners’ que aprendan por ensayo y error.
- Silver critica el enfoque dominante de los LLMs: dice que solo imitan inteligencia humana en lugar de construir inteligencia genuina.
- Compara los datos humanos con combustibles fósiles: un atajo útil pero finito; el aprendizaje autónomo sería energía renovable.
- La empresa ya vale 5,100 mdd y reclutó a los mejores investigadores de DeepMind, desafiando el paradigma actual de la IA.

El hombre que venció al Go ahora quiere reventar la burbuja de los chatbots
En 2016, David Silver le regaló al mundo su primer destello de superinteligencia. Su creación, AlphaGo, derrotó al campeón mundial de Go con una jugada que ningún humano había imaginado. No era solo un programa que imitaba: era una máquina que inventaba. Nueve años después, Silver ha fundado Ineffable Intelligence con 1,100 millones de dólares en financiamiento inicial —una cifra que Wired califica como «enorme para los estándares europeos de IA»— y una tesis radical: la industria de la inteligencia artificial está tomando el camino equivocado.
“Los datos humanos son como una especie de combustible fósil que ha proporcionado un atajo increíble. Puedes pensar en los sistemas que aprenden por sí mismos como un combustible renovable, algo que puede aprender y aprender para siempre, sin límite.”
— David Silver, en entrevista con Wired
Mientras Google, OpenAI y Microsoft compiten por ver quién entrena el modelo de lenguaje más grande, Silver apuesta por el aprendizaje por refuerzo clásico: que la IA descubra el mundo por su cuenta, a base de prueba y error, como un niño que aprende a caminar sin manual de instrucciones. La ironía es que este enfoque —el mismo que produjo a AlphaGo— hoy parece casi revolucionario en una industria obsesionada con escalar transformers y alimentarlos con todo el texto disponible en internet.

¿Combustible fósil o energía renovable? La metáfora que parte la industria en dos
La crítica de Silver no es un simple desacuerdo técnico. Es una declaración de guerra epistemológica. Los Large Language Models (LLMs) —como ChatGPT, Gemini o Claude— aprenden de la producción intelectual humana acumulada durante siglos. Silver sostiene que este método tiene un techo: por más datos que les metas, nunca harán otra cosa que regurgitar patrones humanos con esteroides. En X, la publicación de Wired sobre su nueva empresa acumula decenas de miles de interacciones, lo que sugiere que su postura resuena en una comunidad cada vez más escéptica del hype chatbotil.
El problema es que su propuesta suena hermosa en teoría pero brutal en la práctica. El aprendizaje por refuerzo requiere entornos simulados, recompensas bien diseñadas y, sobre todo, tiempo de cómputo que hace que entrenar un LLM parezca un gasto de oficina. AlphaGo necesitó jugar millones de partidas contra sí mismo para alcanzar la maestría. ¿Cuántas simulaciones necesitará un «superlearner» para descubrir una nueva ley de la física o un modelo económico más justo? Silver no lo dice, pero su bolsa de 1,100 millones de dólares sugiere que está dispuesto a averiguarlo.
El riesgo de prometer demasiado (otra vez)
La industria de la IA tiene una relación complicada con las promesas grandiosas. Cada par de años aparece un nuevo gurú asegurando que su enfoque —redes bayesianas, deep learning, transformers, ahora aprendizaje por refuerzo— es la llave maestra hacia la inteligencia general artificial (AGI). Google DeepMind celebró recientemente 10 años de AlphaGo con un artículo que repasa cómo «la innovación en IA está pavimentando el camino hacia la AGI», pero omite mencionar que la misma empresa ha tenido que pivotear múltiples veces y que AlphaGo, pese a su hazaña, nunca se convirtió en un producto comercial masivo.
Silver, sin embargo, tiene un as bajo la manga que sus predecesores no tenían: resultados concretos. AlphaGo no fue una simulación bonita; fue un evento que en LinkedIn los seguidores de Wired todavía recuerdan con asombro. La diferencia entre Silver y los charlatanes de turno es que él ya demostró que su método puede producir inteligencia que supera a la humana en un dominio complejo. La pregunta es si ese método escala más allá de los juegos de mesa.
1,100 millones de dólares y una apuesta existencial
La valoración de 5,100 millones de dólares que alcanzó Ineffable Intelligence en su ronda semilla —sí, semilla— refleja dos cosas: la fe ciega de los inversionistas en que Silver puede repetir su hazaña, y la desesperación por encontrar el próximo salto cuántico en IA. Los LLMs ya no sorprenden; los chatbots alucinan, los costos de inferencia se disparan y los rendimientos decrecientes del escalamiento son cada vez más evidentes. El mercado necesita una nueva narrativa, y Silver acaba de entregarles una.
Pero hay un detalle que pocos mencionan: Silver prometió donar todas las ganancias de su participación accionaria en Ineffable Intelligence. Una suma que, según Wired, podría ascender a miles de millones. Esto no es solo altruismo; es una jugada de credibilidad. Cuando tu tesis es que la IA debe aprender por sí misma sin depender de datos humanos, el gesto de rechazar la riqueza generada por el sistema actual refuerza el mensaje: esto no es un negocio, es una misión.
El tiempo dirá si Silver tiene razón o si su «superlearner» termina siendo otro AlphaGo —impresionante, pero confinado a un laboratorio. Mientras tanto, la industria observa con una mezcla de fascinación y nerviosismo. Porque si Silver acierta, no solo habrá creado la primera superinteligencia genuina: habrá demostrado que durante años estuvimos mirando en la dirección equivocada, alimentando a nuestras máquinas con el equivalente digital de carbón cuando podríamos haberles enseñado a generar su propia energía solar.


