Sam Altman y la IA: ¿Quién vigila al que vigila?

Dos reportajes revelan la fragilidad de la confianza en quienes construyen la inteligencia artificial que definirá nuest

Destacadas

Entre Líneas
Entre Líneashttps://entrelineas.news
Noticias claras, análisis profundo. La verdad se lee Entre Líneas. #EntreLineas

Lo que debes de saber

  • The New Yorker revela que el cofundador de OpenAI, Ilya Sutskever, acusó a Sam Altman de mentir repetidamente a su equipo y consejo directivo.
  • Los memos secretos de Sutskever incluyen 70 páginas de evidencia sobre un patrón de engaños en OpenAI.
  • The Atlantic reporta que The Washington Post planea usar un coach de IA llamado Ember para editar opiniones de escritores no profesionales.
  • Ambos casos exponen la tensión entre la promesa de la IA y la realidad de quienes la controlan.
Imagen de Newyorker
Tomado de: Newyorker

El botón que nadie quiere apretar

En el otoño de 2023, mientras el mundo seguía debatiendo si la inteligencia artificial nos iba a quitar el trabajo o solo a hacer memes más rápido, dentro de OpenAI se cocinaba algo mucho más grave. The New Yorker publicó un reportaje que destapó una cloaca de desconfianza: el científico jefe de la empresa, Ilya Sutskever, envió memorandos secretos a tres miembros del consejo directivo acusando al CEO, Sam Altman, de mentir de forma sistemática. No era un simple «no me gusta su estilo». Era una acusación con 70 páginas de evidencia: capturas de Slack, documentos de RH y hasta fotos tomadas con celular para evitar ser rastreado por los sistemas de la compañía. El primer punto de la lista de acusaciones era, sin rodeos: «Mentir».

Imagen de Theatlantic
Tomado de: Theatlantic

El dilema del guardián

OpenAI nació con una promesa casi mesiánica: crear inteligencia artificial avanzada, sí, pero con un candado ético. La empresa se constituyó como una organización sin fines de lucro, donde el consejo directivo tenía la obligación legal de priorizar la seguridad de la humanidad por encima de las ganancias. Bonito en el papel. Pero cuando el dinero y el poder se asoman, las buenas intenciones suelen salir huyendo. Sutskever, que alguna vez ofició la boda de Greg Brockman (el segundo al mando) con un anillo llevado por una mano robótica, pasó de amigo a fiscal. Su frase resume todo:

“No creo que Sam sea el tipo indicado para tener el dedo en el botón”.

El patrón que no cesa

Lo que revela The New Yorker no es un incidente aislado. Es un patrón de comportamiento que, según los memorandos, incluía engañar a ejecutivos y ocultar información sobre protocolos de seguridad internos. O sea, no solo mentía sobre cosas pequeñas; mentía sobre lo que podría ser el invento más peligroso de la historia. Y aquí está el meollo del asunto: si no podemos confiar en la persona que diseña el candado, ¿cómo confiamos en el candado mismo? La tecnología no es neutral; refleja los valores y las fallas de quienes la crean. Y si Altman tiene un problema con la verdad, entonces el problema no es solo de OpenAI, es de todos nosotros.

El otro lado del espejo: la IA como editora

Mientras tanto, del otro lado del espectro, The Atlantic reporta que The Washington Post, bajo la batuta de Jeff Bezos, planea usar un coach de IA llamado Ember para ayudar a escritores no profesionales a redactar artículos de opinión. El proyecto, llamado Ripple, busca expandir masivamente la producción de contenido fuera del muro de pago, incluyendo colaboraciones con Substack y otras organizaciones. La idea suena democrática: darle voz a quien no la tiene. Pero el diablo está en los detalles. Un exeditor del Post que participó en las sesiones de lluvia de ideas lo describe así: la forma de llegar al corazón de la gerencia era mencionar la inteligencia artificial como una salsa especial para rociar sobre todo.

El riesgo de la edición automatizada

La metáfora del «slush pile» que usa el artículo de The Atlantic es perfecta. El autor recuerda su época como asistente en una agencia literaria, abriendo montones de propuestas no solicitadas. La mayoría, dice, era material que el lector simplemente no necesita: inexacto, egoísta, aburrido. Los gatekeepers editoriales, esos que tanto criticamos, en realidad cumplen una función heroica: contener una avalancha de basura mientras dejan pasar lo bueno. Ahora, con Ember, el Post planea automatizar parte de ese filtro. ¿El riesgo? Que la avalancha se convierta en un tsunami de contenido genérico, pulido por un algoritmo que no entiende de matices, ironía ni contexto. Que la opinión se convierta en un producto más, optimizado para el clic, no para la verdad.

Dos caras de la misma moneda

Juntos, estos dos reportajes pintan un panorama inquietante. Por un lado, tenemos a un genio de la tecnología que, según sus propios colegas, miente sobre la seguridad de su creación. Por el otro, a un gigante del periodismo que quiere usar la misma tecnología para producir más contenido, pero quizá de menor calidad. En ambos casos, la confianza es la moneda de cambio. Y en ambos casos, parece que estamos dispuestos a gastarla sin preguntar demasiado. La pregunta incómoda no es si la IA nos va a superar. La pregunta es si nosotros, como sociedad, estamos listos para lidiar con las contradicciones humanas que vienen con ella. Porque al final, el problema no es la máquina. El problema es el tipo que tiene el dedo en el botón.


Fuentes consultadas:

Autor

  • Entre Líneas

    Noticias claras, análisis profundo. La verdad se lee Entre Líneas. #EntreLineas

- Publicidad -spot_img

Más noticias

- Publicidad -spot_img

Últimas Noticias