Buscar
Cerrar este cuadro de búsqueda.

AI on ESG

El uso de la Inteligencia Artificial en beneficio de la Seguridad Pública

Por Leonardo Marcos González
Director General de la Guardia Civil

La seguridad pública desempeña un papel fundamental en el mantenimiento de un espacio de libertad y seguridad en la era digital y la IA tiene el potencial de ser una herramienta poderosa para la mejora e impulso de la misma.

La inteligencia artificial (IA) abre un nuevo paradigma que está transformando radicalmente la manera en que interactuamos con la tecnología y el mundo que nos rodea. Esta revolución se basa en la capacidad de las máquinas para aprender, razonar y tomar decisiones, imitando la inteligencia humana.

En el ámbito de las Fuerzas y Cuerpos de Seguridad (FCS), como es el caso de la Guardia Civil, la IA tiene el potencial de ser un poderoso instrumento para mejorar la seguridad pública y proteger a la ciudadanía tanto de los actuales y ya conocidos peligros, como de las potenciales tipologías de delincuencia asociadas a las nuevas tecnologías emergentes. Sin embargo, es muy importante que su uso se haga de manera ética y responsable para evitar que se produzcan abusos o violaciones de derechos fundamentales, siendo crucial establecer límites claros y regulaciones efectivas para ello.

1.- Principios éticos para el uso de la IA en las Fuerzas y Cuerpos de Seguridad

Para garantizar un uso ético de la IA en las FCS es necesario establecer una serie de principios éticos que guíen su uso y desarrollo, pudiéndose incluir entre los mismos:

  • Transparencia: los sistemas de IA utilizados por las FCS deben ser transparentes y abiertos a observación pública. Esto permitiría que la ciudadanía tuviese el derecho a conocer y entender cómo funcionan estos sistemas y cómo se desarrollan los consiguientes procesos de toma de decisiones.
  • Equidad: los sistemas de IA utilizados por las FCS deben ser equitativos y no discriminatorios. Esto significa que deben evitar sesgos que puedan afectar de manera negativa a las tomas de decisiones policiales e incluso a los intereses a ciertos grupos de personas por unas características determinadas.
  • Responsabilidad: los sistemas de IA utilizados por las FCS deben ser responsables, y por tanto las personas que toman las decisiones deben ser responsables de sus acciones, incluso si éstas son tomadas por un sistema de IA.

 

2.- Ejemplos de uso sostenible de la IA por las FCS

La IA se puede utilizar en las FCS para un amplísimo abanico de misiones y actuaciones, optimizando el empleo de personal y medios, mejorando además los tiempos de respuesta y reacción en muchas de sus actuaciones.

2.1.- Prevención e investigación del crimen: los algoritmos de IA se pueden utilizar para analizar datos y detectar patrones que puedan indicar, tanto la comisión de un delito futuro y la posible investigación del mismo, como orientar de forma preventiva y eficiente nuestros servicios diarios:

  1. Análisis de datos: las FCS utilizan algoritmos de inteligencia artificial para analizar grandes cantidades de datos y detectar patrones sospechosos o tendencias que puedan indicar actividades criminales.
  2. Reconocimiento facial: la tecnología de reconocimiento facial se utiliza para identificar a personas sospechosas en imágenes o videos de vigilancia.
  3. Análisis de grandes volúmenes de registros de datos telefónicos: el desarrollo de algoritmos de IA para el análisis de los datos, conversaciones, relaciones, etc. obtenidas en las intervenciones telefónicas (previa autorización judicial) propias de las investigaciones policiales, supondría establecer un sistema mucho más rápido y eficiente, en el que se minimizarían costes de personal, tiempo y medios.
  4. Análisis de redes sociales: las FCS pueden utilizar herramientas de inteligencia artificial para analizar publicaciones o perfiles en redes sociales y detectar amenazas o actividades delictivas, anticipándose con ello a la comisión de múltiples delitos (desde actos terroristas o asesinatos, hasta los cometidos contra colectivos vulnerables como el bullying, el ciberacoso, etc.).
  5. Sistemas de alerta temprana: muy relacionado con el punto anterior, los sistemas de alerta temprana utilizan algoritmos de inteligencia artificial para identificar patrones que puedan indicar la planificación o ejecución de actividades criminales, como el terrorismo.
  6. Detección automática de fraudes: existen algoritmos de inteligencia artificial que se utilizan para detectar patrones sospechosos en transacciones financieras y prevención del fraude.
  7. Automatización de tareas repetitivas, como la revisión de grandes cantidades de datos: esto permitiría a las FCS centrarse en tareas más importantes, maximizando su tiempo y recursos.

 

2.2.- Orientación eficiente de servicios de prevención usando la tecnología “Predictive Policing” (Policía Predictiva): esta tecnología debe integrarse con las conocidas por la ciudadanía como “Patrullas”, que se podrían planificar y desarrollar de una manera más eficaz y sostenible teniendo en cuenta criterios muy variables que sin una herramienta lo suficientemente potente como la IA no sería posible. Se podrían conjugar criterios tan dispares como zonas de especial relevancia por índice de criminalidad, eventos de interés (conciertos, manifestaciones concentraciones multitudinarias, mercados, etc.), vigilancias y seguimiento de víctimas de delitos como VIOGEN, consumo y disponibilidad de vehículos y medios, meteorología en la zona, etc.

2.3.- Proyecto “Guardia Civil virtual”: la Guardia Civil está desarrollando actualmente un proyecto basado en tecnología de IA con un doble objetivo:

  • Por un lado, mejorar la experiencia de consulta sobre asuntos del Cuerpo de los hombres y mujeres que forman parte de la Guardia Civil, con independencia de su lugar de destino y formación en competencias digitales, favoreciendo así la mejora de sus condiciones de vida profesionales y personales.
  • Por otro, contribuir al cumplimiento de una de las líneas de actuación prioritarias del Plan Estratégico de la Guardia Civil 2021-2024, basada en la modernización, generación de valor público y contribución frente al reto demográfico, mediante la creación de un nuevo canal de asistencia para la ciudadanía complementario, que potencie (no sustituya) los ya existentes, a través del uso de nuevas tecnologías.

 

En todos estos casos, la IA puede ayudar, o ayuda ya, a las Fuerzas y Cuerpos de Seguridad a realizar su trabajo de manera más eficaz, eficiente y sostenible, debiendo siempre utilizar la misma de una manera ética y responsable, tal y como se indicaba en el apartado anterior.

3.- Conclusiones

La seguridad pública desempeña un papel fundamental en el mantenimiento de un espacio de libertad y seguridad en la era digital y la IA tiene el potencial de ser una herramienta poderosa para la mejora e impulso de la misma. Esta transformación digital, junto con la aparición de sistemas de inteligencia artificial, ha permitido a las Fuerzas y Cuerpos de Seguridad adoptar enfoques más eficientes y sostenibles para prevenir y perseguir actividades criminales. Sin embargo, es importante garantizar que estos avances se desarrollen con “equidad, trasparencia y responsabilidad”, redundando con ello siempre en un mejor servicio a la ciudadanía. Al establecer principios éticos para el uso de la IA en las Fuerzas y Cuerpos de Seguridad, podemos ayudar a garantizar que esta tecnología se utilice para el bien de una sociedad cada vez más demandante.

4.- Algunas recomendaciones específicas

Además de los principios éticos mencionados anteriormente, se pueden tomar una serie de medidas para garantizar un uso ético de la IA en las FCS. Estas medidas podrían incluir, entre otras, las siguientes:

  • Desarrollar marcos legales y regulatorios que garanticen el uso ético de la IA. A este respecto, la Unión Europea ha propuesto ya una directiva para establecer normas armonizadas en materia de inteligencia artificial.
  • Crear organismos independientes para supervisar el uso de la IA por parte de las Fuerzas y Cuerpos de Seguridad.
  • Instruir a los agentes sobre los principios éticos de la IA y su aplicación a la labor diaria.

Leonardo Marcos González, Director General de la Guardia Civil

Nacido en Valderas (León) en 1958, es Licenciado en Derecho por la Universidad Autónoma de Madrid, cursó el programa de Alta Dirección en el Instituto Nacional de Administración Pública y pertenece al Cuerpo Superior de Administradores Civiles del Estado. 

Ha sido director general de Protección Civil y Emergencias hasta junio de 2023. Antes, entre otros desempeñó los puestos de secretario general de la Delegación del Gobierno en Castilla y León, inspector de la Inspección General del Ministerio del Interior, subdirector general de Recursos Humanos en el Instituto Nacional de Estadística y subdirector general de Posgrado y Doctorado en el Ministerio de Educación. También ha sido consejero de Información en las embajadas de España en Argentina, Estados Unidos y China.