La IA puede ayudar en la prevención del crimen, pero aún necesitamos un humano a cargo.

Print Friendly, PDF & Email
Share Button

por

Imagínate que vives en una ciudad inteligente que conoce tu rostro y sigue todos tus movimientos: los lugares a los que vas, la gente que ves y todas las cosas que haces en el camino.

Con el tiempo, la inteligencia artificial (IA) autónoma crea un perfil que informa sobre la probabilidad de que usted cometa un delito. Cuando el riesgo es alto, la policía toma medidas preventivas. Bienvenidos a la hiper-vigilancia y a la próxima generación de policía predictiva.

Tanto India como China están implementando actualmente este nivel de vigilancia para reducir los índices de criminalidad y detectar a los terroristas antes de que ataquen.

Japón también está estudiando sistemas de predicción antes de los Juegos Olímpicos de Tokio 2020. Londres y otras partes del Reino Unido han estado utilizando una tecnología similar durante algún tiempo.

Puede que ya esté ocurriendo en la ciudad donde vives.

Una vigilancia generalizada y en tiempo real como ésta es posible porque los ordenadores más potentes y con mayor número de funciones pueden procesar los torrentes de datos de reconocimiento facial y análisis de la marcha procedentes de miles de cámaras de vídeo, todas ellas coordinadas por una avanzada inteligencia artificial que puede dar sentido a todo ello.

No hace mucho tiempo, confiábamos en las patrullas policiales de ojos de águila para garantizar la seguridad pública. Eso fue cuando vivíamos en pequeñas comunidades donde la gente se conocía de vista.

Pero a medida que las ciudades continuaban creciendo, y se volvían demasiado grandes para el oficial de policía solo, la televisión de circuito cerrado (CCTV), el reconocimiento de rostros y los sistemas de predicción más temprana entraron en uso.

La moralidad de la hiper-vigilancia

Hay división de opiniones sobre la ética de la policía predictiva.

Los defensores de la privacidad y los defensores de las libertades civiles están preocupados, por este nivel de vigilancia, por temor a que se convierta en un instrumento de discriminación.

Mientras tanto, los defensores de la seguridad pública y la lucha contra el terrorismo sostienen que la tecnología predictiva tiene un gran potencial para frustrar los ataques terroristas y otras amenazas a la seguridad pública.

Ambos argumentos tienen fuerza y validez, por lo que la cuestión es: ¿dónde trazamos exactamente la línea entre el interés público y la libertad individual?

La respuesta será diferente en cada caso. Cada jurisdicción debe negociar la respuesta teniendo en cuenta todas las preocupaciones de las partes interesadas.

Desde que los terroristas atacaron en Estados Unidos el 11 de septiembre de 2001, el grado de vigilancia y registro en los aeropuertos ha aumentado drásticamente.

Con el tiempo, los viajeros llegaron a aceptar que la situación redundaba en su propio interés y en el de sus compañeros de viaje.

La privacidad comienza y termina en la puerta principal

Generalmente se acepta que usted tiene derecho a la privacidad en su propio hogar. Cuando usted cierra la puerta principal, puede esperar razonablemente que nadie esté mirando y escuchando.

La excepción es cuando usted está en casa pero participa en actividades criminales que amenazan a la comunidad. Aquí es donde trazamos la línea en este caso entre los derechos individuales y el bien común.

Pero cuando sales, cualquiera puede mirarte si quiere. También podrían escuchar por casualidad la conversación que usted está teniendo. No hay derecho a la privacidad de la mirada pública, y nunca lo ha habido.

Pero mirar es diferente a hacer predicciones – y la incómoda verdad es que la tecnología policial predictiva tiene el potencial de ser usada como una herramienta de opresión. Gestionar este riesgo en una sociedad abierta y democrática es sin duda un reto, pero no un reto insuperable con frenos y contrapesos.

Sopesar los riesgos y los beneficios

Dada la experiencia general de la policía predictiva, parece que hay razones de peso para seguir utilizándola.

En Australia, por ejemplo, se informó de que 15 atentados terroristas se habían frustrado en los últimos tres años gracias a la labor policial respaldada por algoritmos informáticos.

La pregunta es, ¿cómo minimizamos los riesgos a un nivel aceptable?

La respuesta corta es establecer un marco legal que garantice la transparencia ética en cualquier método de policía predictiva de inteligencia artificial, incluida la forma en que se combinan los algoritmos.

También garantizaría rigurosamente que los datos introducidos en los sistemas de predicción son exactos e imparciales. Como con cualquier sistema de computadora, la salida es sólo tan buena como la entrada – basura dentro, basura fuera, como dice el dicho.

Esto es necesario para abordar las preocupaciones actuales sobre los sesgos inherentes a los sistemas de predicción.

Se ha observado que no todas las fuerzas policiales son iguales. En Estados Unidos hay no menos de 12.000 policías locales. No cabe duda de que habrá diferencias, que se reflejarán en la calidad del liderazgo y en la disponibilidad de recursos.

Asociación Humano/IA

El trabajo policial no es perfecto y los oficiales humanos no lo hacen bien todo el tiempo.

Pero cuando se trata de la IA en el trabajo policial, creo que siempre debería haber un lugar en la aplicación de la ley para los instintos finamente afilados de un oficial humano experimentado, templado por un sistema de frenos y contrapesos.

La tecnología debe estar siempre subordinada al ser humano, asumiendo el papel de ayudante en la toma de decisiones.

De esta manera, cuando la era de la hiper-vigilancia llegue a tu ciudad natal, será un humano responsable, no una máquina – por muy inteligente que sea – quien decida si una persona representa un riesgo grave para la seguridad pública.

Share Button
This entry was posted in Artículos, DD.HH., Inteligencia Artificial. Bookmark the permalink.

Comments are closed.