Influencers del ‘Apocalipsis AI’ buscan viralizar el miedo

Destacadas

Entre Líneas
Entre Líneashttps://entrelineas.news
Noticias claras, análisis profundo. La verdad se lee Entre Líneas. #EntreLineas

Lo que debes de saber

  • Un movimiento financiado por Silicon Valley está reclutando influencers para difundir advertencias apocalípticas sobre la IA.
  • La narrativa del ‘riesgo existencial’ desvía la atención de problemas reales y actuales como los sesgos algorítmicos o el desempleo.
  • Muchos de los que financian estas campañas son los mismos que lideran la carrera por desarrollar IA más poderosa.
  • El acceso a información clave, como un artículo del New York Times de 2023, está restringido, opacando el debate público.

El Apocalipsis como estrategia de engagement

Imagina que el fin de la humanidad no llega con fuego nuclear o un virus mutante, sino con un meme malicioso creado por una inteligencia artificial que se volvió consciente y decidió que los humanos somos el error en el sistema. Esa es la premisa central que un grupo de activistas, respaldados por algunos de los nombres más pesados de la tecnología, quiere que los creadores de contenido viralicen en TikTok, YouTube e Instagram. Según un reporte de The Washington Post, este movimiento está profesionalizando el miedo, transformando advertencias filosóficas complejas sobre la «alineación» de la IA en paquetes digeribles para las masas. La estrategia es clara: si la gente no lee los papers académicos de 100 páginas, quizás sí le preste atención a un video de 60 segundos de su influencer favorito explicando cómo un algoritmo podría decidir exterminarnos. El problema no es la advertencia en sí, que puede tener bases técnicas legítimas, sino el ecosistema de financiamiento y los intereses detrás de la cortina. Mientras un youtuber habla de Skynet, los fondos de capital de riesgo que patrocinan su mensaje siguen invirtiendo millones en startups que buscan precisamente crear una IA más general y poderosa. Es una esquizofrenia corporativa de manual: construir el monstruo y, al mismo tiempo, venderte el seguro contra el monstruo.

Los profetas del doom y sus mecenas tecnológicos

Detrás de esta campaña para influencers no hay un grupo de científicos locos en un garaje, sino una red bien conectada y financiada. Hablamos de organizaciones e individuos que han hecho fortunas o han ascendido a la cúspide del poder en Silicon Valley. Su argumento, conocido como «riesgo existencial por IA», postula que si creamos una inteligencia artificial superhumana, sus objetivos podrían desalinearse de los nuestros de formas catastróficas e impredecibles. Es una preocupación válida en el ámbito de la ética tecnológica. Sin embargo, cuando esta narrativa es empujada agresivamente al mainstream por los mismos actores que aceleran la carrera de la IA, surgen preguntas incómodas. ¿Es una genuina cruzada por la seguridad o una maniobra de relaciones públicas y posicionamiento de mercado? Al enfocar toda la conversación en un futuro hipotético y espectacular, se corre el riesgo de eclipsar los daños concretos y presentes de la IA: los sesgos algorítmicos que perpetúan la discriminación, la erosión masiva de empleos, la desinformación generada a escala industrial y la concentración de un poder descomunal en unas cuantas empresas. El «apocalipsis» es un producto más fácil de vender y menos incómodo que discutir cómo los sistemas de hoy ya están jodiendo la vida de millones.

«Warnings about the potential for artificial intelligence to escape human control could be coming soon to an influencer near you.» – The Washington Post

Esta cita del Washington Post captura la esencia del asunto: la profesionalización del pánico. No se trata de un debate en foros académicos, sino de un esfuerzo deliberado por llevar un mensaje específico a las plataformas de consumo masivo. Y aquí es donde el acceso a la información se vuelve crucial. Mientras este reporte de 2026 nos da una ventana a la estrategia, intentar consultar perspectivas anteriores, como un artículo clave de The New York Times de 2023, se topa con un muro. El enlace devuelve un error 403, un «acceso prohibido» que sugiere que el contenido está tras un paywall o requiere una autenticación especial. Esta opacidad no es un detalle menor. Significa que para el ciudadano común, el debate está fragmentado y sesgado desde el origen: solo puede acceder a las piezas que los algoritmos y los muros de pago le permiten, dificultando una comprensión completa y crítica del panorama. Es como intentar armar un rompecabezas con la mitad de las piezas guardadas en una caja fuerte.

El verdadero riesgo: que el miedo nos distraiga de lo urgente

El mayor peligro de esta campaña del «doom» no es que infunda miedo, sino que ese miedo sea mal dirigido. Cuando la conversación pública se secuestra por escenarios de ciencia ficción, se le resta energía, atención y recursos políticos a los problemas urgentes que la IA ya está causando. Mientras nos preocupamos por que una superinteligencia nos aniquile en 2045, pasamos por alto que hoy, algoritmos opacos deciden quién recibe un crédito, quién es contratado para un trabajo o incluso quién recibe una sentencia judicial más larga. Estos son daños reales, medibles y que afectan desproporcionadamente a las comunidades más vulnerables. La narrativa apocalíptica, en cambio, suele ser abstracta, universal y, curiosamente, muy conveniente para los gigantes tecnológicos. Les permite presentarse como guardianes responsables de un poder casi divino, en lugar de como corporaciones que deben ser reguladas por sus prácticas monopólicas, su opacidad y sus impactos sociales negativos actuales. Es un giro maestro de narrativa: de acusados a profetas. La próxima vez que veas un video viral sobre el fin de los tiempos causado por la IA, hazte una pregunta simple: ¿quién se beneficia de que tú tengas miedo de esto, precisamente ahora, y no de otras cosas? La respuesta suele estar en los créditos del video o en los fondos que financian al think tank que proporcionó los «datos». El futuro es incierto, pero el presente de la industria del miedo es muy rentable.


Fuentes consultadas:

Autor

  • Entre Líneas

    Noticias claras, análisis profundo. La verdad se lee Entre Líneas. #EntreLineas

- Publicidad -spot_img

Más noticias

- Publicidad -spot_img

Últimas Noticias