Lo que debes de saber
- Israel desarrolló durante más de una década un sistema de IA llamado ‘Habsora’ (El Evangelio) para seleccionar objetivos militares en Gaza.
- El sistema permitió reponer rápidamente el banco de objetivos y mantener una campaña de ataques ininterrumpida desde octubre de 2023.
- El Washington Post documentó un debate interno en el ejército israelí sobre la fiabilidad de la inteligencia generada por IA y el riesgo de acelerar la muerte de civiles.
- Expertos advierten que Gaza es un ‘precursor’ de cómo se librarán las guerras futuras, combinando velocidad algorítmica con preguntas sobre precisión y supervisión humana.
La máquina de matar con algoritmo
Imagínate un sistema que en segundos decide si un edificio es un objetivo militar legítimo, sin que un humano haya pisado la calle ni revisado el contexto. Eso no es ciencia ficción, es lo que The Washington Post documentó sobre el uso del sistema de inteligencia artificial israelí llamado Habsora («El Evangelio») en Gaza. Según la investigación, Israel pasó más de una década construyendo esta «fábrica de IA» que, desde el 7 de octubre de 2023, alimentó una campaña de bombardeos sin precedentes, generando cientos de objetivos adicionales a una velocidad que ningún equipo humano podría igualar.
El debate que nadie quiere tener
Lo más inquietante no es solo la tecnología, sino lo que revela sobre la toma de decisiones en la guerra moderna. La investigación de Misbar expone que dentro del alto mando militar israelí existía un debate acalorado, incluso antes del 7 de octubre, sobre la fiabilidad de la inteligencia generada por IA. Había quienes cuestionaban el nivel de escrutinio aplicado a las recomendaciones del sistema y temían que la dependencia de la IA hubiera debilitado las capacidades tradicionales de inteligencia humana. En otras palabras, algunos oficiales ya sospechaban que el algoritmo estaba tomando atajos peligrosos.
«Lo que está sucediendo en Gaza es un precursor de un cambio más amplio en la forma en que se libra la guerra», dijo Steven Feldstein, miembro senior del Carnegie Endowment, que investiga el uso de IA en conflictos. «Combina eso con la aceleración que ofrecen estos sistemas, así como las preguntas sobre la precisión».
La velocidad como arma de destrucción masiva
El sistema Habsora no solo generaba objetivos, los generaba a un ritmo que ningún equipo de inteligencia humana podría mantener. Esto permitió al ejército israelí reponer su banco de objetivos casi instantáneamente, garantizando que la campaña de bombardeos no tuviera interrupciones. Pero aquí está el problema: cuando la velocidad se convierte en el objetivo principal, la precisión suele ser la primera víctima. Y en un territorio densamente poblado como Gaza, donde cada edificio puede albergar a decenas de civiles, un error de algoritmo no es un bug, es una sentencia de muerte.
El futuro ya llegó, y no trae manual de ética
Lo que estamos viendo en Gaza no es un experimento aislado. Es el ensayo general de cómo se librarán las guerras del futuro. Sistemas como Habsora representan un salto cualitativo: ya no se trata de drones pilotados a distancia, sino de algoritmos que deciden qué y quién merece ser bombardeado. La pregunta que debería incomodar a gobiernos, organismos internacionales y ciudadanos es: ¿quién supervisa al supervisor? Porque cuando la máquina se equivoca, no hay parche que devuelva la vida a los muertos.


