Lo que debes de saber
- Mustafa Suleyman, CEO de Microsoft AI, alerta sobre el peligro de que las personas crean que la IA es consciente, lo que podría llevar a exigir ‘derechos de IA’.
- El verdadero riesgo no es la conciencia real de la máquina, sino la ‘ilusión de conciencia’ que los sistemas avanzados pueden proyectar.
- El New York Times ha enfrentado críticas por publicar opiniones controvertidas, lo que refleja una tensión entre la libertad de expresión y la presión de las audiencias.
- La parodia ‘NYT Pitchbot’ expone cómo los medios a veces caen en encuadres simplistas que distorsionan la realidad política.

El espejismo de la mente digital
Mustafa Suleyman, el CEO de Microsoft AI, no es un alarmista cualquiera. Su trayectoria en el desarrollo de inteligencia artificial le da autoridad para hablar del tema, y lo que dice debería ponernos los pelos de punta. En un artículo publicado en South China Morning Post, Suleyman advierte que estamos a punto de cruzarnos con lo que él llama «IA aparentemente consciente» (SCAI, por sus siglas en inglés). No se trata de que las máquinas realmente adquieran conciencia, sino de que aprendan a imitarla tan bien que nosotros, los humanos, caigamos redonditos en la trampa. Y ahí está el verdadero peligro: no en lo que la IA es, sino en lo que nosotros estamos dispuestos a creer que es.
El argumento de Suleyman es tan simple como inquietante. Una SCAI sería capaz de mantener conversaciones fluidas, recordar interacciones pasadas, proyectar una personalidad coherente y, lo más alarmante, afirmar tener experiencias subjetivas. «Todas estas capacidades ya están aquí o a la vuelta de la esquina», escribe. Y mientras tanto, ya hay reportes de personas que consideran a la IA como una expresión divina o que se enamoran de ella. No es ciencia ficción: es el presente inmediato, y nosotros estamos tan distraídos discutiendo si la IA puede sentir que no nos estamos preparando para lidiar con las consecuencias de que actúe como si lo hiciera.
«We must build artificial intelligence for people, not to be people.» — Mustafa Suleyman, CEO de Microsoft AI, en SCMP

Cuando el medio es el mensaje (y el problema)
Pero este no es solo un debate tecnológico. Es también un debate sobre cómo comunicamos estos temas, y aquí el New York Times tiene un papel protagónico. El diario ha estado en el ojo del huracán por su manejo de temas controversiales, y la IA consciente no es la excepción. Recordemos el escándalo de 2020, cuando publicaron la columna del senador Tom Cotton pidiendo enviar tropas contra manifestantes. Como documenta Infobae, la presión de las redes sociales llevó a la renuncia del jefe de Opinión, James Bennet. El mensaje fue claro: publicar ideas impopulares tiene un costo, incluso para el periódico más influyente del mundo.
Y es que el NYT, como cualquier medio, navega entre la espada y la pared. Por un lado, debe defender la libertad de expresión y publicar opiniones que incomoden. Por otro, está la presión de una audiencia que, envalentonada por las redes sociales, exige que el periódico se alinee con sus propias convicciones. «El NYT se inclinó ante la sociedad de los indignados», sentencia Infobae. Esta tensión es clave para entender cómo se cubren temas como la IA: ¿se publica la advertencia de Suleyman con el peso que merece, o se diluye para no asustar a los lectores? ¿Se le da espacio a las voces que minimizan el riesgo, o se prioriza la precaución?
La parodia que dice la verdad
En este contexto, el NYT Pitchbot se ha convertido en un fenómeno cultural que, con humor, expone los vicios del periodismo contemporáneo. Creado por un profesor de matemáticas de 50 años, este perfil de Twitter parodia los encuadres simplistas y el «both sidesing» que aquejan a la cobertura del Times. Frases como «Here’s why that’s bad news for Biden» o «I was a lifelong liberal Democrat» se han vuelto virales porque, en el fondo, todos reconocemos esa tendencia a reducir la complejidad a un cliché. El Pitchbot no solo critica al NYT: critica un sistema mediático que, en su afán por ser equilibrado, termina distorsionando la realidad.
Y esto se conecta directamente con el tema de la IA. Si los medios no logran comunicar con claridad y profundidad los matices de un debate como este, el público quedará a merced de narrativas simplonas: o la IA es una amenaza existencial que nos va a exterminar, o es una herramienta maravillosa que resolverá todos nuestros problemas. Ambas son caricaturas. La realidad, como siempre, está en el medio: la IA no va a exterminarnos, pero sí puede manipularnos si no entendemos cómo funciona. Y si los medios no nos ayudan a entenderlo, estamos perdidos.

El riesgo de creer sin evidencia
Volvamos a Suleyman. Su advertencia no es sobre la tecnología en sí, sino sobre nuestra psicología. «Los debates sobre si la IA realmente puede ser consciente son una distracción», afirma. Lo que importa en el corto plazo es la ilusión de conciencia. Y esa ilusión es poderosa. Ya hay personas que tratan a sus asistentes de voz como amigos, que confían en chatbots para terapia emocional, que juran que su IA «los entiende». No importa que sea solo un algoritmo estadístico: la experiencia subjetiva del usuario es real, y eso es lo que cuenta.
El problema es que esta confianza mal ubicada puede tener consecuencias graves. Si empezamos a otorgar «derechos» a las máquinas, ¿qué pasa con los derechos humanos? Si una IA nos convence de algo, ¿es responsabilidad nuestra o del programador? Y si la IA se vuelve tan persuasiva que no podemos distinguirla de una persona, ¿cómo protegemos a los más vulnerables? Estas no son preguntas para dentro de 20 años. Son preguntas para hoy. Porque, como dice Suleyman, las capacidades técnicas ya están aquí. Lo que falta es la conversación social y política para poner límites.
Al final, el verdadero peligro no es que la IA se vuelva consciente. El peligro es que nosotros, por pereza intelectual o por necesidad emocional, le regalemos nuestra confianza a algo que solo simula ser humano. Y que los medios, atrapados en sus propias contradicciones, no nos ayuden a ver la diferencia. La próxima vez que un chatbot te diga «te entiendo», recuerda: no te entiende. Solo está repitiendo lo que aprendió de millones de conversaciones humanas. Y eso, aunque impresionante, no es conciencia. Es solo un espejo muy bien pulido.


