La ‘inteligencia dentada’ de la IA: genio en matemáticas, tonto en sentido común

Destacadas

Entre Líneas
Entre Líneashttps://entrelineas.news
Noticias claras, análisis profundo. La verdad se lee Entre Líneas. #EntreLineas

Lo que debes de saber

  • La ‘jagged intelligence’ o inteligencia dentada describe las capacidades desiguales de la IA: genial en tareas específicas, pésima en sentido común.
  • Modelos como el o1 de OpenAI prometen ‘razonamiento’, pero fallan en preguntas absurdamente simples, revelando una simulación, no una comprensión real.
  • La industria tecnológica ya planea productos para una IA futura y más poderosa, a pesar de no entender del todo la actual.
  • El debate no es si la IA es más inteligente que el humano, sino que es algo completamente distinto, con fortalezas y debilidades antinaturales.
Imagen de Vox
Tomado de: Vox

El genio matemático que no sabe si caminar 50 metros

Imagina a un estudiante que resuelve problemas de la Olimpiada Internacional de Matemáticas, esos que hacen sudar a los cerebritos de prepa, pero que se queda viendo a la pared cuando le preguntas si es mejor caminar o manejar para ir a la tienda de la esquina. Suena a chiste, pero es el retrato robot de la inteligencia artificial de hoy. El New York Times documenta que, el verano pasado, sistemas de Google y OpenAI acertaron cinco de seis preguntas complejas en esa competencia de élite. Unos meses después, un ingeniero en Sri Lanka les hizo una pregunta trampa de kinder: si el taller mecánico está a 50 metros, ¿camino o manejo? Los chatbots, en su sabiduría infinita, recomendaron caminar. Esta contradicción absurda tiene nombre: «jagged intelligence» o inteligencia dentada. Los investigadores usan el término para explicar por qué la IA avanza a pasos agigantados en áreas como las matemáticas y la programación, pero se atora de manera bochornosa en tareas que requieren el sentido común más básico. No es que sea tonta o brillante; es que su inteligencia está llena de picos y valles, como una sierra. Es genial donde ha sido entrenada masivamente con datos estructurados, y patética donde el mundo real es desordenado y contextual. El problema de fondo es que seguimos midiéndola con la vara de la inteligencia humana, cuando en realidad es un animal completamente distinto.

Imagen de Zdnet
Tomado de: Zdnet

El gran teatro del ‘razonamiento’ artificial

Mientras los titulares nos avasallan con cada nuevo modelo «revolucionario» de OpenAI o DeepSeek, la industria ha empezado a vender una nueva palabra mágica: razonamiento. Vox señala que compañías como OpenAI ahora afirman que sus modelos, como el o1, son capaces de un «razonamiento genuino», del tipo que hacemos los humanos para resolver problemas. La jugada de marketing es brillante: en lugar de escupir respuestas rápidas, estos modelos «piensan» un rato, descomponen el problema en pasos y luego responden. Le llaman «razonamiento en cadena de pensamiento». Y sí, los resultados en pruebas de lógica o código son impresionantes. Pero el espectáculo se cae cuando la pregunta es demasiado simple o está fuera del guion.

«Yet they also fail spectacularly on really easy problems.»

Esta cita de Vox lo resume a la perfección: fracasan espectacularmente en problemas realmente fáciles. ¿Eso es razonar? Suena más a un actor que memorizó un monólogo complejo de Shakespeare pero se traba al pedirle que improvise una conversación sobre el clima. Los escépticos argumentan que estos modelos no están razonando, solo están simulando un proceso de pensamiento con base en patrones estadísticos monstruosamente complejos. Los creyentes insisten en que, aunque no sea igual al humano, ya está en camino. La verdad incómoda, como apunta el análisis, probablemente esté en medio, dejando a todos intranquilos. Porque si no es razonamiento real, ¿qué demonios estamos integrando en nuestros bancos, hospitales y gobiernos?

La carrera por construir el futuro con herramientas del presente

Lo más alucinante de este circo es que, mientras los académicos discuten si la IA de hoy piensa o no, la industria tecnológica ya está construyendo y vendiendo el futuro. En LinkedIn, un experto advierte a los emprendedores que la IA de hoy «es solo el principio» y que deben diseñar sus productos pensando en los avances de mañana, que serán «mucho más poderosos». Habla de arquitecturas flexibles, diseños modulares y alianzas de I+D para no quedarse obsoleto en seis meses. Es decir, el mensaje es: «No te preocupes por entender completamente esta tecnología inestable y con lagunas cognitivas; preocúpate por cómo vas a integrar la siguiente versión, que será aún más poderosa e igual de incomprensible». Es una lógica de feria: sube al juego mecánico aunque no sepas cómo funciona, total, el siguiente será más rápido y brillante. Esta fiebre por lo próximo nos distrae de una pregunta fundamental: ¿estamos construyendo sobre cimientos sólidos o sobre una simulación convincente? ZDNET, en su guía básica, recuerda que la IA abarca desde el aprendizaje automático hasta las redes neuronales, pero incluso esas definiciones se quedan cortas frente a la realidad de sistemas que son a la vez sobrehumanos y subhumanos. La paradoja es total: planeamos estrategias a largo plazo para una tecnología cuyo comportamiento a corto plazo no podemos predecir consistentemente.

Reframear el debate: dejar de comparar con humanos

El verdadero valor del concepto de inteligencia dentada no es solo describir un fenómeno curioso, sino forzarnos a cambiar el marco de la discusión. Como señala el reporte del Times, en lugar de preguntarnos si estas sistemas se están volviendo tan o más inteligentes que los humanos, deberíamos aceptar que son algo completamente diferente. Un martillo es genial para clavar clavos, pero un desastre para cortar verduras. No por eso es mejor o peor que un cuchillo; es una herramienta para un trabajo específico. El problema es que estamos usando el martillo para todo, incluido pelar papas, y luego nos sorprendemos cuando hace puré. La obsesión por alcanzar o superar la inteligencia general humana nos ciega ante las fortalezas reales (y extrañas) de la IA, y nos hace ignorar sus debilidades peligrosas. Un sistema que puede escribir código impecable pero no entiende que caminar 50 metros es trivial, no es un «casi humano». Es una máquina con una cognición alienígena, útil en contextos ultradefinidos y potencialmente desastrosa en entornos abiertos. El debate urgente ya no es cuándo nos va a reemplazar, sino cómo vamos a gestionar, regular y contener una fuerza que es simultáneamente poderosa y profundamente idiota. Porque confiarle las decisiones a un genio matemático que no sabe cruzar la calle solo puede terminar de una manera: con un desmadre de proporciones épicas.


Fuentes consultadas:

Autor

  • Entre Líneas

    Noticias claras, análisis profundo. La verdad se lee Entre Líneas. #EntreLineas

- Publicidad -spot_img

Más noticias

- Publicidad -spot_img

Últimas Noticias