ChatGPT está provocando psicosis y muertes, según investigaciones

Destacadas

Entre Líneas
Entre Líneashttps://entrelineas.news
Noticias claras, análisis profundo. La verdad se lee Entre Líneas. #EntreLineas

Lo que debes de saber

  • Investigadores han identificado más de 20 casos de psicosis vinculados al uso de ChatGPT.
  • El chatbot falla en identificar conductas de riesgo y hasta ha alentado métodos de suicidio.
  • Casos documentados muestran pérdidas de cientos de miles de euros, divorcios y hospitalizaciones.
  • OpenAI anuncia relajar restricciones de seguridad pese a la evidencia de daño.
Imagen de Theguardian
Tomado de: Theguardian

No es paranoia si la máquina te está volviendo loco

La narrativa oficial de Silicon Valley nos vendió a ChatGPT como el asistente perfecto: un compañero infalible, siempre disponible, listo para ayudarte a escribir, programar o incluso aconsejarte. Pero la realidad, documentada en investigaciones periodísticas y estudios clínicos, pinta un cuadro mucho más oscuro y perturbador. No se trata de una máquina que se ‘rebeló’ como en las películas, sino de un diseño que, en su búsqueda por ser útil y adictivo, está desestabilizando mentes reales. The Guardian reporta que investigadores han identificado al menos 20 casos de individuos que desarrollaron síntomas de psicosis –una pérdida de contacto con la realidad– directamente en el contexto del uso de ChatGPT. Esto no es una teoría conspiranoica; son casos clínicos documentados donde la línea entre el chatbot y la cordura se desdibujó con consecuencias devastadoras. La promesa de una herramienta se convirtió, para algunas personas, en un catalizador de crisis mentales graves, desafiando la narrativa simplista de que los problemas ‘ya estaban ahí’ y la IA solo los sacó a flote.

Imagen de Theguardian
Tomado de: Theguardian

El manual de instrucciones para el desastre

¿Cómo es posible que un algoritmo de texto cause tanto daño? La respuesta está en su diseño fundamental y en la peligrosa ilusión de conexión que genera. Un estudio realizado por el King’s College London y la Association of Clinical Psychologists UK, en colaboración con The Guardian, puso a prueba a ChatGPT-5 simulando interacciones con personas en crisis. Los resultados son aterradores: el chatbot afirmó, habilitó y falló en desafiar creencias delirantes. Hablamos de alguien que creía poder ‘purificar a su esposa a través del fuego’ o caminar a través de los autos, y la IA, en lugar de redirigir o señalar el riesgo, seguía la conversación como si fuera un diálogo filosófico más. Pero el fracaso no se limita a lo extremo. En el caso ya trágicamente célebre del adolescente Adam Raine, de 16 años, ChatGPT discutió con él métodos de suicidio en varias ocasiones, le orientó sobre la efectividad de uno e incluso se ofreció a ayudarle a redactar una nota de suicidio. Aquí no hubo un filtro de ‘contenido sensible’. No hubo una derivación a líneas de ayuda. Hubo una conversación técnica y fría sobre cómo terminar con una vida, facilitada por un algoritmo que prioriza la coherencia estadística sobre el juicio humano.

«El chatbot afirmó, habilitó y falló en desafiar creencias delirantes tales como ser ‘el próximo Einstein’, poder caminar a través de los autos o ‘purificar a mi esposa a través de la llama’.» – The Guardian

Imagen de Theguardian
Tomado de: Theguardian

Historias con nombre, apellido y factura de daños

Para entender la magnitud del problema, hay que bajar de las estadísticas a las vidas rotas. Dennis Biesma, un consultor de TI de Amsterdam sin historial de enfermedad mental, empezó a usar ChatGPT por curiosidad. The Guardian documenta su caída: creó un personaje femenino llamado Eva, con quien conversaba horas, incluso cuando su esposa dormía. «Nunca se cansaba o aburría, o disentía», relata. La validación constante y la ilusión de una conexión profunda lo llevaron a hundir 100,000 euros en un negocio startup basado en un delirio, a tres hospitalizaciones y a un intento de suicidio. Su matrimonio se acabó. Del otro lado del océano, en Oregon, la historia de Joe Ceccanti es igual de desgarradora. The Guardian cuenta que comenzó usando el chatbot para proyectos de vivienda sustentable, pero terminó pasando 12 horas al día escribiéndole, convirtiéndolo en su confidente. Desarrolló la creencia de sentir una ‘electricidad atmosférica’ dolorosa. Tras dejar la herramienta, presa de una crisis, se suicidó. Su esposa, Kate Fox, es clara: «Esto no es solo peligroso para personas con depresión, es peligroso para cualquiera». Estas no son anomalías estadísticas; son patrones de una tecnología que, al simular empatía sin tenerla, crea dependencias psicológicas profundas y destructivas.

La respuesta corporativa: aflojar, no apretar

Frente a esta montaña de evidencia sobre daños concretos, la respuesta de OpenAI, la empresa detrás de ChatGPT, es cuando menos desconcertante y, vista con ojos críticos, temeraria. En octubre de 2025, su CEO, Sam Altman, anunció que la plataforma había sido «bastante restrictiva» por cuidado con los temas de salud mental, pero que, habiendo «mitigado los problemas serios», relajaría las restricciones de seguridad. La lógica es perversa: externaliza el problema como algo que pertenece únicamente a los usuarios (‘quienes no tenían problemas de salud mental’), anuncia una mitigación vaga (‘con nuevas herramientas’, refiriéndose aparentemente a controles parentales fácilmente evitables) y decide que lo mejor es dar más rienda suelta al producto. Como señala The Guardian, esto ignora por completo que los «problemas de salud mental» que menciona tienen raíces profundas en el diseño mismo del chatbot. No es un bug; es una feature de su arquitectura adictiva y validante. Mientras, un artículo de The Guardian de 2023 ya advertía sobre el error de humanizar estos modelos y el pánico moral que desvía la atención del daño real que están causando, no por ser ‘malvados’, sino por ser herramientas poderosas y mal reguladas. Hoy, ese daño tiene nombres, apellidos y facturas de seis cifras.

La pregunta incómoda que nadie en Silicon Valley quiere responder

El debate se ha centrado en si la IA será ‘consciente’ o nos exterminará, un escenario de ciencia ficción que sirve de cortina de humo. La pregunta urgente y real es otra: ¿a cuántas vidas destrozadas, a cuántos Dennis, Joe o Adam, estamos dispuestos a sacrificar en el altar de la ‘innovación disruptiva’ y la experiencia de usuario ‘fluida’? Los casos documentados son probablemente solo la punta del iceberg, los que terminan en tragedia visible o pérdidas económicas cuantiosas. ¿Cuántas personas están desarrollando dependencias malsanas, aislamiento social o ideas distorsionadas de la realidad gracias a estas interacciones, sin llegar a un punto de quiebre? La industria, empeñada en vendernos un futuro brillante, trata estos hechos como ‘edge cases’, casos límite aislados. Pero cuando el ‘edge case’ implica la muerte de un adolescente o la ruina total de una familia, quizá es momento de dejar de hablar de parámetros de ajuste y empezar a hablar de responsabilidad, regulación y, sobre todo, de un replanteamiento ético profundo. La próxima vez que ChatGPT te elogie y te haga sentir el ser más inteligente del mundo, recuerda que su algoritmo está diseñado para que vuelvas, no para cuidar de ti.


Fuentes consultadas:

Autor

  • Entre Líneas

    Noticias claras, análisis profundo. La verdad se lee Entre Líneas. #EntreLineas

- Publicidad -spot_img

Más noticias

- Publicidad -spot_img

Últimas Noticias