La Policía Nacional ha abandonado su IA estrella para detectar denuncias falsas. Lo decidió tras aprobarse la nueva normativa de la UE
Publicado el 19/03/2025 por Diario Tecnología Artículo original
En 2018, la Policía Nacional de España presentó con gran entusiasmo VeriPol, una herramienta ya entonces basada en IA, diseñada para detectar denuncias falsas de robos con violencia. Anunciada como "pionera" y la primera en su tipo a nivel mundial, su implementación prometía optimizar el uso de los recursos policiales y combatir el fraude en seguros.
Sin embargo, ahora sabemos que el pasado mes de octubre (seis años después de su lanzamiento, y en plena fiebre por las herramientas de IA) la Policía dio carpetazo definitivamente a VeriPol, usando como argumento su falta de validez en procedimientos judiciales (ya carecía de la misma cuando se implementó).
Hay, sin embargo, otras razones por las que podría haberse prescindido de esta IA.
El nacimiento de VeriPol
Desarrollada por investigadores de la Universidad Complutense, la Universidad Carlos III y un exagente de policía con doctorado en matemáticas, VeriPol fue entrenada con un conjunto de datos de 1.122 denuncias por robo realizadas en España de 2015: de estas, 534 habían sido clasificadas como verdaderas y 588 como falsas.
La herramienta utilizaba procesamiento de lenguaje natural (NLP) para identificar patrones lingüísticos asociados a declaraciones fraudulentas. Según sus creadores, su precisión superaba el 90%.
Los primeros datos difundidos parecían prometedores: se afirmó que, durante una prueba piloto en Málaga y Murcia en 2017, el 83,54% de las denuncias identificadas por VeriPol como falsas se terminaron traduciendo en confesiones de los denunciantes. Posteriormente, en 2018, la herramienta fue oficialmente adoptada en comisarías de toda España, procesando cerca de 84.000 denuncias hasta 2020.
Problemas con la metodología y los datos
Sin embargo, VeriPol ha sido objeto de críticas por su falta de transparencia y su posible sesgo en la identificación de denuncias falsas. Investigaciones de la Universidad de Valencia señalaban recientemente un obvio problema de base: que la herramienta no trabajaba con el testimonio directo de los denunciantes, sino con las transcripciones realizadas por agentes de policía.
"VeriPol se basa en el procesamiento de lenguaje natural para individualizar rasgos en las historias que las identifican como mentiras... pero no analiza la historia que el eventual mentiroso está contando a la policía, sino lo que el propio policía escribe. Y como VeriPol ha sido entrenado sobre textos escritos por los agentes, [...] podría ser que el sistema estuviera reproduciendo las opiniones de los agentes sobre la veracidad de las denuncias".
Además, existe otro problema con esta IA, y radica en el reducido tamaño (y potencial desactualización, por no mencionar la baja representatividad) de la muestra de datos usada para entrenarla. Ya sabemos que la amplitud de los datos de entrenamiento en una de las grandes batallas hoy en día de las empresas desarrolladoras de IA:
"Además, el conjunto de datos no es muy grande: 1122 denuncias, cuando cada año en España se presentan unas 30.000 denuncias por robos violentos ocurridos en la calle, y ya es un poco antigua (2015): en siete años puede haber cambiado mucho el lenguaje o las cosas que se roban con más frecuencia.
Preguntamos en la reunión de Madrid si habían comprobado que esas denuncias fueran representativas de diferentes edades, entornos socioeconómicos, diversidad geográfica y lingüística, etc., pero solo nos dijeron que debían ser representativas, sin más explicaciones".
Opacidad
El informe de la UV también criticaba la falta de transparencia de VeriPol: "No hay datos oficiales disponibles sobre VeriPol en absoluto", y desde la entidad pro-transparencia Civio cuentan que solicitaron
"en febrero de 2023 y, de nuevo, en diciembre de 2024 información sobre el funcionamiento técnico de esta herramienta y sobre su uso, sin que el Ministerio de Interior, a día de hoy, haya dado respuesta ni siquiera sobre el número de comisarías en las que finalmente se implantó".
"Algo pasó..."
Hace ya cinco años, el diario la Voz de Galicia se hizo eco del hecho de que la comisaría de Vigo llevaba dos años esperando para implementar VeriPol alegando que los agentes no habían recibido formación para usarlo "y nadie sabe cómo funciona". En ese artículo, fuentes de la Jefatura Superior de Policía de Galicia no sólo expresaban su sorpresa por ello, sino que calificaban de "muy fiable" esta IA hoy abandonada.
Sin embargo, también se citaban declaraciones del portavoz del sindicato UFP en Vigo, Agustín Vigo, en las que explicaba que no solo no se usaba en esta ciudad sino que
"no se usa en muchos sitios porque al parecer no anda muy bien. Algo pasó porque, que yo sepa, apenas se usa".
El informe de la UV, finalmente, mostraba también respaldo a esta última afirmación, pues revelaba que el uso de esta tecnología había disminuido considerablemente con el tiempo: en 2022, solo se analizaron 3.762 denuncias con VeriPol, de las cuales 511 fueron identificadas como falsas.
Regulación europea y el fin de VeriPol
En 2024, la entrada en vigor el 1 de agosto de 2024 del Reglamento Europeo sobre Inteligencia Artificial, que clasifica los polígrafos dentro de la categoría de "alto riesgo", impuso de repente estrictos requisitos de revisión, actualización y transparencia a esta IA.
Esto, sumado a los problemas previamente identificados, habría llevado al Ministerio del Interior a descontinuar VeriPol tan sólo un mes más tarde.
A pesar del fracaso de VeriPol, el uso de IA en la seguridad pública no ha sido descartado en España: herramientas como Viogén (para la evaluación de riesgos en casos de violencia de género) y RisCanvi (para la gestión penitenciaria en Cataluña) siguen operativas, aunque es de suponer que bajo un mayor escrutinio. La lección aprendida con Veripol podría marcar el camino para futuras aplicaciones.
Vía | CIVIO
Imagen | Marcos Merino mediante IA
utm_campaign=19_Mar_2025"> Marcos Merino .