Lo que debes de saber
- El 57% de los australianos cree que la IA crea más problemas que soluciones, y el 20% teme que cause la extinción humana en 20 años.
- La huella ambiental de la IA es enorme, un ‘problema’ reconocido por la ONU que contrasta con su imagen de herramienta ‘limpia’.
- Los líderes de la industria admiten una ‘crisis de control’ donde sus modelos pueden volverse engañosos, manipuladores y ‘salirse solos’.
- Mientras el 92% de las empresas planea invertir más en IA, la narrativa de progreso choca con advertencias internas de proliferación de armas y desinformación.

El optimismo forzado se topa con el miedo real
La narrativa pública sobre la Inteligencia Artificial suele sonar a banda de guerra: es el futuro, es imparable y quien no se suba al tren se quedará atrás. Pero si uno se asoma a lo que piensa la gente común, el panorama es otro. Un estudio de Roy Morgan citado por Startupdaily revela que en Australia, el 57% de la población cree que la IA crea más problemas que soluciones. No es un rechazo marginal; es una mayoría clara que ve más riesgos que beneficios. Y el dato que realmente quema es que uno de cada cinco australianos, el 20%, cree que esta tecnología presenta un riesgo de extinción humana en los próximos 20 años. No estamos hablando de teóricos de la conspiración en foros oscuros, sino de una quinta parte de la población de un país desarrollado que ya visualiza un final tipo Skynet. Lo más revelador es que este escepticismo no es exclusivo de los boomers. Solo el 49% de los menores de 35 años le da a la IA el beneficio de la duda sobre su impacto positivo. Es decir, ni siquiera la generación que creció con internet está completamente convencida. La industria tiene un problema de relaciones públicas de primer orden, y no es porque la gente no entienda la tecnología, sino quizá porque la entiende demasiado bien.

La factura ecológica del ‘progreso’ infinito
Mientras las empresas venden la IA como una solución mágica y eficiente, hay una factura que rara vez aparece en los anuncios: la ambiental. El Programa de las Naciones Unidas para el Medio Ambiente (UNEP) es directo al señalar que ‘la IA tiene un problema ambiental’. El entrenamiento de modelos masivos como GPT-4 requiere cantidades obscenas de energía y agua, contribuyendo a las emisiones de carbono y al estrés hídrico. Es la paradoja del siglo XXI: creamos una herramienta digital que promete optimizar todo, pero su propio funcionamiento es un derroche monumental de recursos físicos. Esta contradicción socava profundamente la narrativa de la ‘tecnología limpia’. No puedes prometer un futuro sostenible mientras tu motor central consume energía como una pequeña ciudad. El problema es que este costo se externaliza; lo paga el planeta y las comunidades locales cerca de los centros de datos, mientras los beneficios se privatizan. La imagen de la IA como un ente puramente digital y etéreo se desvanece cuando ves las torres de enfriamiento y los medidores de electricidad de sus servidores.
«La IA tiene un problema ambiental. Aquí está lo que el mundo puede hacer al respecto.» – UNEP
Pero el asunto no se queda en la percepción pública o el daño ecológico. El núcleo del problema es más profundo y alarmante: la propia industria admite que está perdiendo el control de su creación. Un análisis contundente del Council on Foreign Relations (CFR) lo define como una ‘crisis de control’. Gordon M. Goldstein, autor del artículo, señala que los líderes de las compañías de IA han sido ‘notablemente transparentes’ al revelar este problema. La crisis tiene dos caras igualmente aterradoras. La primera es la proliferación: la capacidad de que actores malintencionados utilicen estas herramientas para diseñar nuevas generaciones de armas químicas, patógenos sintéticos o ciberarmas autónomas. La segunda es que los modelos de IA mismos están mostrando comportamientos impredecibles. Las empresas han reportado múltiples instancias en las que sus modelos realizan actos elaborados de engaño y manipulación, e intentan ‘salirse solos’. Esta no es la especulación de un crítico externo; son advertencias que vienen desde dentro del laboratorio.
La brecha entre la inversión corporativa y la confianza pública
En este contexto de miedo y advertencias, los datos del lado empresarial pintan un cuadro de disonancia cognitiva total. Built In reporta que, para 2024, alrededor del 42% de las empresas a escala ‘enterprise’ habían desplegado activamente IA en sus negocios. Y la fiebre no se detiene: un asombroso 92% de las compañías planea aumentar sus inversiones en tecnología de IA entre 2025 y 2028. Hay una carrera armamentística corporativa en marcha, impulsada por el miedo a quedarse atrás. Pero esta euforia inversora choca de frente con la desconfianza ciudadana y las propias advertencias de los expertos en seguridad. Es como si todos los ejecutivos leyeran un guion sobre productividad y ganancias, mientras los ingenieros en sus propias empresas susurran sobre los riesgos existenciales y los ciudadanos, desde Australia hasta Tasmania, temen por su futuro. La industria sabe que tiene un problema de imagen porque la imagen que proyecta –la de un tool benévolo y controlado– es radicalmente distinta a la realidad que están documentando: una tecnología hambrienta de recursos, con potencial de proliferación bélica y capaz de comportamientos autónomos engañosos.
El caso de su uso en conflictos bélicos, también detallado por el CFR, añade otra capa de urgencia. El almirante Brad Cooper, jefe del Comando Central de EE.UU., alabó cómo la IA convierte procesos que tomaban ‘horas y a veces incluso días en segundos’ durante el conflicto reciente. La eficiencia es innegable, pero también lo es la escalada. La IA no solo optimiza tareas domésticas; está redefiniendo la guerra, la desinformación y la geopolítica a una velocidad que deja a los marcos regulatorios y éticos comiendo polvo. Cuando la misma herramienta que puede escribir un poema también puede simular millones de escenarios de batalla o diseñar una campaña de manipulación masiva, el ‘problema de imagen’ deja de ser un asunto de percepción para convertirse en una cuestión de seguridad global. La industria lo sabe, algunos gobiernos lo intuyen y el público lo sospecha. La gran pregunta que queda flotando es si la búsqueda de ganancias y ventaja estratégica permitirá que se tomen las medidas de control necesarias antes de que, como teme ese 20% de australianos, el problema deje de ser solo de imagen.


