MÁQUINAS, IA Y EL FUTURO DE LAS POLÍTICAS POLICIALES DIRIGIDAS POR LA INTELIGENCIA
Fuente: Axon UK
Vigilancia predictiva
Existe la posibilidad de que la vigilancia basada en datos prediga y prevenga delitos. Aún así, la activista por la igualdad racial Mecole Jordan-McBride, gerente sénior de programas del Proyecto de Vigilancia de la Facultad de Derecho de la Universidad de Nueva York y miembro de la junta de ética de Axon en EE. UU., Advierte que su uso tiene implicaciones para las libertades civiles y las comunidades minoritarias.
La vigilancia policial predictiva ya se utiliza en muchos lugares de los Estados Unidos y del Reino Unido, pero existe una controversia creciente sobre su rápida adopción debido a la falta de transparencia y su potencial para discriminar y alienar a las comunidades. Esto llevó a la UE a proponer nuevas reglas para la IA en febrero de 2020, diciendo que ‘se necesitan reglas claras para abordar los sistemas de IA de alto riesgo ‘, como los de salud, vigilancia o transporte, que deberían ser’ transparentes, rastreables y garantizados vigilancia.’
La vigilancia predictiva se introdujo alrededor de 2011, cuando la revista Time elogió la vigilancia predictiva como uno de los 50 inventos principales de ese año. Era un momento en el que estábamos empezando a comprender el potencial de los macrodatos que venían con el avance de la digitalización, así como las grandes esperanzas de que esta tecnología mejoraría nuestras vidas.
Numerosas fuerzas policiales en los EE. UU. Y el Reino Unido han comenzado a probar y utilizar datos históricos para predecir delitos durante la última década.
Los sistemas de vigilancia predictiva funcionan mediante el uso de algoritmos de aprendizaje automático, que pueden analizar millones de puntos de datos. Estos pueden incluir detalles de delitos pasados e identidades de delincuentes, que se pueden combinar con inteligencia local, historial de redes sociales y datos de teléfonos móviles. Los sistemas de inteligencia artificial están capacitados para detectar correlaciones y patrones dentro de los datos para, por ejemplo, aprender el modus operandi de los delincuentes y hacer predicciones sobre dónde es probable que ocurran futuros delitos y quién puede convertirse en víctima o perpetrador de violencia.
Desde el inicio de la tecnología, ha habido un gran optimismo de que permitiría a la policía pasar de la vigilancia tradicional a la vigilancia basada en inteligencia, o de un enfoque reactivo a uno proactivo, previniendo en lugar de tener que resolver delitos. Esto beneficiaría no solo a las víctimas y a la sociedad en su conjunto, sino también a los perpetradores, quienes podrían evitar ingresar al sistema de justicia penal y los efectos perjudiciales que esto a menudo tiene en sus oportunidades de vida.
Problemas de montaje
Sin embargo, existe una preocupación creciente de que este uso de datos tenga un impacto negativo en las libertades civiles y las comunidades. Jordan-McBride, Pide un enfoque más cauteloso de la vigilancia policial predictiva. “Vivimos en una sociedad que depende cada vez más de la IA”, dice, “pero esto no da luz verde a aplicaciones como la vigilancia policial predictiva sin profundizar en cómo funciona y cómo afecta a las comunidades”.
A McBride también le preocupa cómo la tecnología afecta a las comunidades BAME. Algunos sistemas se centran en la ubicación, tratando de predecir dónde y cuándo es probable que ocurran delitos futuros, mientras que otros intentan prevenir delitos identificando a las personas que tienen más probabilidades de convertirse en víctimas o perpetradores de delitos. Para compilar la lista, el sistema analiza a los residentes con un historial de violencia y actividad delictiva, así como a las personas a las que están afiliados, a través de, por ejemplo, actividad de pandillas o historial de redes sociales.
Mecole encuentra esto profundamente problemático porque sostiene que los datos utilizados reproducen los prejuicios raciales existentes en la sociedad, arriesgando un nuevo tipo de perfil. Ella dice: “Algunas comunidades de color ya están excesivamente controladas, y estos algoritmos simplemente están reproduciendo esto, centrándose desproporcionadamente en ellas”.
Dejar un comentario
¿Quieres unirte a la conversación?Siéntete libre de contribuir