En un mundo donde la violencia y el crimen representan desafíos persistentes, la inteligencia artificial (IA) emerge como una herramienta transformadora para fortalecer la seguridad pública. Desde predecir incidentes delictivos hasta detectar patrones de comportamiento violento y combatir el bullying, la IA está redefiniendo cómo las sociedades abordan estos problemas.

En América Latina, donde la informalidad y el rezago tecnológico plantean obstáculos, iniciativas como las del Banco Interamericano de Desarrollo (BID) muestran el potencial de la IA para generar un impacto positivo. Sin embargo, su implementación debe ser ética y transparente para evitar sesgos y proteger los derechos humanos. En esta columna hablaremos de las aplicaciones de la IA en la prevención de la violencia y el crimen, sus beneficios, desafíos y el camino hacia un uso responsable, con un enfoque particular en América Latina.

La IA como Aliada en la Prevención del Crimen

La IA ha revolucionado la prevención del crimen al permitir un enfoque proactivo basado en datos. Una de las aplicaciones más destacadas es la POLICIA PREDICTIVA, que utiliza algoritmos para analizar datos históricos, actividad en redes sociales y factores ambientales para predecir dónde y cuándo es probable que ocurran delitos. Por ejemplo, la herramienta PredPol logró reducir los robos residenciales en un 22% en Tacoma, Washington, entre 2013 y 2015 (Emerj, 2023).

En América Latina, el Programa para la Prevención y Respuesta a la Violencia y la Criminalidad en Ecuador, apoyado por el BID, utiliza IA para combatir el crimen organizado, reduciendo la impunidad en territorios prioritarios (IDB, 2025).

El reconocimiento facial es otra aplicación clave, que compara imágenes en tiempo real con bases de datos para identificar sospechosos o personas desaparecidas. Este sistema, utilizado en más de 60 países, ha contribuido a reducir la violencia grave en ciudades de Estados Unidos, aunque ha generado controversias por posibles sesgos raciales (ScienceDirect, 2024). En la región, el BID promueve su uso ético a través de fAIrLAC, fortaleciendo marcos legales para garantizar responsabilidad (IDB, 2025).

Los sistemas de vigilancia mejorados con IA analizan imágenes de cámaras CCTV para detectar comportamientos sospechosos, como rondar cerca de cajeros automáticos o interacciones agresivas. En India, un software en prueba anticipa tiroteos y disturbios, mientras que en Sea Point, Sudáfrica, las cámaras de Hikvision redujeron el crimen en un 65% (I'MNOVATION, n.d.). Además, sistemas como ShotSpotter detectan disparos en tiempo real con una precisión de 3 metros, operando en más de 90 ciudades, incluyendo Nueva York y Chicago (Emerj, 2023).

Las herramientas de evaluación de riesgos, como COMPAS y Hart, analizan datos individuales para predecir la probabilidad de reincidencia o victimización, con precisiones del 98% para bajo riesgo y 88% para alto riesgo. (National Institute of Justice, 2024).

Combatiendo el Bullying y el Maltrato con IA

La IA también está transformando la prevención del bullying y el maltrato, especialmente en entornos digitales y educativos. Los algoritmos de procesamiento de lenguaje natural (NLP) monitorean redes sociales para detectar lenguaje ofensivo o amenazas, ayudando a prevenir el ciberacoso. Plataformas como Facebook y Twitter utilizan estas tecnologías, aunque la complejidad del lenguaje requiere revisión humana para mayor precisión (Clickatell, n.d.).

En el ámbito educativo, la IA analiza datos escolares y de redes sociales para identificar riesgos de bullying. En Japón, sistemas de IA han estudiado 9,000 casos pasados para predecir formas de bullying que podrían escalar, permitiendo intervenciones tempranas (KID_ACTIONS, 2022). Los chatbots basados en IA ofrecen espacios seguros para que los estudiantes discutan experiencias de bullying, detectando señales de distress y alertando a consejeros escolares (BBC Future, 2020).

Para el maltrato, como la violencia doméstica o el abuso a adultos mayores, la IA analiza patrones en datos de emergencias, registros médicos o redes sociales para identificar casos potenciales, como lesiones inexplicables o aislamiento social. Aunque su uso es incipiente, estas aplicaciones prometen prevenir incidentes graves (BBC Future, 2020).

Detección de Patrones y Búsqueda de Delincuentes

La capacidad de la IA para detectar patrones de comportamiento violento y localizar delincuentes es fundamental. Sistemas como Cloud Walk combinan reconocimiento facial con análisis de la marcha para identificar individuos en espacios públicos, incluso cuando sus rostros no son visibles (Voyager Labs, n.d.). El análisis de redes sociales permite detectar amenazas o asociaciones con grupos violentos, como en el caso del Departamento de Policía de Chicago, que utiliza algoritmos para identificar individuos de alto riesgo (National Institute of Justice, 2025).

La IA también analiza videos para detectar microexpresiones o comportamientos agresivos, mejorando la prevención proactiva. En India, un software vincula movimientos de peatones a prácticas criminales, anticipando situaciones como tiroteos (I'MNOVATION, n.d.).

Desafíos Éticos y Prácticos

A pesar de sus beneficios, el uso de la IA en la prevención de la violencia y el crimen plantea desafíos significativos. Los sesgos algorítmicos son una preocupación central: el reconocimiento facial y las herramientas de evaluación de riesgos, como COMPAS, han mostrado tasas de error más altas con personas de piel oscura y minorías, lo que puede llevar a sospechas que deben ser evaluadas por humanos (ScienceDirect, 2024; National Institute of Justice, 2024). La privacidad también es un problema crítico, ya que la vigilancia masiva y la recolección de datos personales pueden erosionar los derechos individuales, especialmente en América Latina, donde las leyes de protección de datos están en desarrollo (IDB, 2025).

La amenaza del uso de la IA por parte de delincuentes, como en ataques de phishing o deepfakes, plantea nuevos desafíos. Por ejemplo, los modelos de lenguaje grandes (LLMs) pueden generar textos convincentes para fraudes, lo que requiere contramedidas como sistemas de detección de deepfakes (TRM Labs, 2025).

Contexto en América Latina

En América Latina, la adopción de la IA para la prevención del crimen enfrenta obstáculos como la alta informalidad (más del 50% de los empleos) y el rezago tecnológico, con el 70% de las PYMES sin acceso a internet (CEPAL, 2024). Sin embargo, iniciativas como fAIrLAC del BID están promoviendo el uso ético de la IA, con programas específicos en Chile, Ecuador y Perú que buscan reducir robos violentos, mejorar la gestión de ciberataques y fortalecer los servicios de prevención del crimen para poblaciones vulnerables (IDB, 2025). Estas iniciativas destacan el potencial de la IA para transformar la seguridad pública en la región, siempre que se superen las barreras estructurales mediante inversiones en infraestructura y capacitación.

Estrategias para un Uso Responsable

Para maximizar los beneficios de la IA y mitigar sus riesgos, sugerimos estrategias a implementar:

  1. Regulaciones Éticas: Desarrollar marcos legales que garanticen transparencia y equidad, como los promovidos por fAIrLAC en América Latina (IDB, 2025).
  2. Inversión en Investigación: Mejorar la precisión y reducir los sesgos en los algoritmos de IA mediante datos de entrenamiento más inclusivos.
  3. Educación Pública: Campañas como "Think Before You Post" del FBI fomentan la alfabetización digital y la conciencia sobre el uso responsable de la IA (TRM Labs, 2025).
  4. Colaboración Multisectorial: Asociaciones público-privadas, como la Unidad de Delitos Financieros T3 de TRM Labs, que ha incautado más de $130 millones desde agosto de 2024, demuestran la efectividad de la cooperación (TRM Labs, 2025).

Aplicaciones de la IA en la Prevención de la Violencia y el Crimen

Aplicación

Funcionamiento

Ejemplo/Estadística

Policía Predictiva

Analiza datos históricos para predecir crímenes y asignar recursos.

PredPol redujo robos en Tacoma, Washington, en un 22% (2013-2015) (Emerj, 2023).

Reconocimiento Facial

Compara imágenes para identificar sospechosos con alta precisión.

Redujo violencia en 268 ciudades de EE.UU., pero ajustar sobre sesgos (ScienceDirect, 2025).

Sistemas de Vigilancia

Analiza CCTV para detectar comportamientos sospechosos.

En Sudáfrica, redujo crímenes en un 65% (I'MNOVATION, n.d.).

Detección de Disparos

Sensores acústicos detectan disparos en tiempo real.

ShotSpotter en 90+ ciudades (Emerj, 2023).

Evaluación de Riesgo

Predice riesgos de reincidencia o victimización.

COMPAS y Hart, con precisiones del 98%, debe ajustarse sesgos raciales (National Institute of Justice, 2024).

Moderación de Contenido

Detecta lenguaje ofensivo en redes sociales mediante NLP.

Usado por Facebook y Twitter, requiere revisión humana (Clickatell, n.d.).

Análisis Predictivo (Bullying)

Identifica riesgos de bullying en datos escolares o redes sociales.

En Japón, predice formas de bullying que podrían escalar (KID_ACTIONS, 2022).

Chatbots de Apoyo

Ofrecen apoyo emocional y alertan sobre distress.

Escuelas usan chatbots anónimos para detectar preocupaciones (BBC Future, 2020).

La inteligencia artificial está redefiniendo la prevención de la violencia y el crimen, ofreciendo herramientas que permiten anticipar, detectar y responder a comportamientos peligrosos con una eficiencia sin precedentes. En América Latina, donde los desafíos de seguridad son particularmente apremiantes, la IA tiene el potencial de transformar la seguridad pública, pero deben abordarse barreras estructurales como la informalidad y el acceso limitado a la tecnología. Su implementación debe ser guiada por principios éticos para evitar sesgos, proteger la privacidad y garantizar la equidad. Se debe avanzar rápidamente en regulaciones sólidas, educación pública y colaboración multisectorial, la IA puede convertirse en una fuerza poderosa para construir comunidades más seguras y justas en la región y más allá.

(*) Especialista en Inteligencia Artificial.