Lo que debes de saber
- La Met usó IA de Palantir durante una semana sin avisar a sus agentes y descubrió fraudes, abusos sexuales y corrupción en cientos de oficiales.
- 98 policías están siendo evaluados por manipular el sistema de turnos para beneficio personal; 42 mandos altos mintieron sobre su asistencia a la oficina.
- El sindicato policial calificó la medida como «sospecha automatizada» y advirtió que la IA puede malinterpretar estrés laboral como indicio de corrupción.
- Mientras la Met usa Palantir para limpiar su casa, negocia un contrato millonario para que la misma empresa procese inteligencia criminal sensible.
- El caso expone la paradoja de la vigilancia: la misma herramienta que destapa abusos puede convertirse en un arma de control masivo si no se regula.

La IA que vino a limpiar la casa
La Policía Metropolitana de Londres —la misma que no supo detectar a tiempo al asesino de Sarah Everard— decidió poner a prueba una herramienta de inteligencia artificial de Palantir, la controvertida empresa tecnológica que trabaja para el ejército israelí y la migra de Donald Trump. El resultado, según reporta The Guardian, fue tan revelador como incómodo: en una semana de monitoreo secreto, el software destapó desde fraudes con horas extra hasta abusos sexuales y corrupción sistémica. No es para menos: de los 46.000 agentes y personal que conforman la fuerza, 615 recibieron notificaciones de advertencia y más de un centenar enfrentan investigaciones por falta grave.
Lo más llamativo no es solo la cantidad de casos, sino el perfil de los implicados. El sistema detectó que 98 oficiales estaban manipulando el sistema informático de turnos para obtener beneficios personales o financieros. Pero el escándalo no se detiene ahí: 42 mandos de alto rango —desde inspectores jefe hasta superintendentes jefe— mintieron descaradamente sobre su presencia en la oficina, violando la directriz interna que exige un mínimo del 80% de asistencia presencial. Según BritBrief, estos oficiales podrían perder su empleo por haber falseado sus registros laborales durante años.
«Los oficiales no deben ser sometidos a herramientas opacas o no probadas que corren el riesgo de malinterpretar las presiones de carga de trabajo insostenibles, las enfermedades o las horas extra como indicadores de irregularidades», declaró la Federación de Policía, según cita The Guardian.

El lado oscuro de la vigilancia interna
El uso de Palantir para cazar policías corruptos suena a justicia poética, pero el asunto tiene aristas más turbias de lo que parece. La misma empresa que ahora ayuda a la Met a limpiar su imagen —y que ya tiene contratos con el NHS, el Ministerio de Defensa y otras fuerzas policiales por más de 500 millones de libras— está en negociaciones para expandir su rol hacia la inteligencia criminal. Según reveló The Guardian en exclusiva, Scotland Yard quiere que Palantir automatice el análisis de datos sensibles sobre víctimas y sospechosos, lo que ha generado «preocupaciones internas» sobre la seguridad de la información en manos de una firma vinculada a la aplicación de leyes migratorias de Trump y a operaciones militares en Gaza.
Y aquí viene la contradicción que debería incomodar a cualquiera: la misma tecnología que hoy expone a policías que se pasaban de listos con las horas extra podría mañana perfilar a ciudadanos comunes como potenciales delincuentes basándose en patrones de comportamiento. El LBC reporta que el comisionado Sir Mark Rowley ya considera usar programas similares para «identificar depredadores peligrosos y puntos calientes de crimen». ¿Suena conocido? Es el mismo argumento que usaron gobiernos autoritarios para justificar sistemas de puntuación social.
El sindicato contra la máquina
La Federación de Policía, que representa a los agentes de base, no se ha quedado callada. Calificaron la medida como «sospecha automatizada» y advirtieron que herramientas no probadas pueden malinterpretar el estrés laboral —como bajas por enfermedad o acumulación de horas extra— como indicios de corrupción. Y no les falta razón: si un oficial trabaja el doble porque su compañía está infiltrada de corruptos, ¿la IA lo marcará como cómplice o como víctima del sistema? El problema de fondo es que la tecnología de Palantir no distingue contextos: solo encuentra patrones, y los patrones pueden mentir.
El caso de los 12 oficiales investigados por no declarar su membresía en la masonería es paradigmático. La Met considera que ocultar esa afiliación es una falta grave, pero ¿qué sigue? ¿Declarar partidos políticos, equipos de fútbol o preferencias de series de Netflix? El límite entre la transparencia necesaria y la vigilancia totalitaria se vuelve cada vez más difuso cuando una empresa privada —con un historial ético cuestionable— tiene acceso a los datos más íntimos de quienes deberían hacer cumplir la ley.

El precio de la limpieza
Desde que Sir Mark Rowley asumió el cargo en 2022, la Met ha despedido a 1.500 agentes por diversas faltas. Pero el comisionado cree que la IA puede detectar lo que los métodos tradicionales no logran ver. Y los números le dan la razón: en una semana, Palantir encontró evidencia de abusos que habían pasado desapercibidos durante años. Tres oficiales fueron arrestados por delitos que van desde abuso de autoridad con fines sexuales hasta violación. Dos más fueron suspendidos. Y 30 oficiales fueron señalados por «comportamiento sospechoso» aún no corroborado.
Pero aquí está el dilema que ningún comunicado oficial resuelve: si la IA es tan efectiva para cazar corruptos internos, ¿por qué no se usó antes? ¿Y por qué la Met mantuvo en secreto el piloto, sin informar siquiera a los propios agentes monitoreados? La respuesta, aunque incómoda, es predecible: porque la vigilancia sin consentimiento —incluso cuando descubre verdades— sienta un precedente peligroso. Hoy es para atrapar policías que robaban horas extra; mañana podría ser para silenciar a periodistas, perseguir opositores o perfilar inmigrantes.
El caso de la Met y Palantir es un espejo donde cualquier país con aspiraciones democráticas debería mirarse. No porque Londres sea un ejemplo de virtud policial —que no lo es—, sino porque muestra con crudeza cómo la tecnología puede ser tanto un bisturí que extirpa tumores como una sierra que corta sin discriminación. La diferencia no está en el software, sino en quién lo opera y con qué límites. Y cuando la misma empresa que te vende la cura también negocia el contrato para la próxima epidemia, conviene preguntarse: ¿quién vigila al vigilante cuando el vigilante es una máquina?
Fuentes consultadas:
- Theguardian – Met investigates hundreds of officers after using Palantir AI tool
- Theguardian – Met police in talks to buy Palantir AI tech for use in criminal investigations
- Theguardian – Met police using AI tools supplied by Palantir to flag officer misconduct
- Britbrief Co Uk – Met Police Uses AI to Unearth Rogue Officers, Hundreds Face Sack
- Lbc Co Uk – Met could expand Palantir AI use after ‘hundreds’ identified in rogue officer crackdown


