MÁQUINAS, IA Y EL FUTURO DE LAS POLÍTICAS POLICIALES DIRIGIDAS POR LA INTELIGENCIA

, ,

Fuente: Axon UK

Vigilancia predictiva

Existe la posibilidad de que la vigilancia basada en datos prediga y prevenga delitos. Aún así, la activista por la igualdad racial Mecole Jordan-McBride, gerente sénior de programas del Proyecto de Vigilancia de la Facultad de Derecho de la Universidad de Nueva York y miembro de la junta de ética de Axon en EE. UU., Advierte que su uso tiene implicaciones para las libertades civiles y las comunidades minoritarias.

La vigilancia policial predictiva ya se utiliza en muchos lugares de los Estados Unidos y del Reino Unido, pero existe una controversia creciente sobre su rápida adopción debido a la falta de transparencia y su potencial para discriminar y alienar a las comunidades. Esto llevó a la UE a proponer nuevas reglas para la IA en febrero de 2020, diciendo que ‘se necesitan reglas claras para abordar los sistemas de IA de alto riesgo ‘, como los de salud, vigilancia o transporte, que deberían ser’ transparentes, rastreables y garantizados vigilancia.’

La vigilancia predictiva se introdujo alrededor de 2011, cuando la revista Time elogió la vigilancia predictiva como uno de los 50 inventos principales de ese año. Era un momento en el que estábamos empezando a comprender el potencial de los macrodatos que venían con el avance de la digitalización, así como las grandes esperanzas de que esta tecnología mejoraría nuestras vidas.

Numerosas fuerzas policiales en los EE. UU. Y el Reino Unido han comenzado a probar y utilizar datos históricos para predecir delitos durante la última década.

Los sistemas de vigilancia predictiva funcionan mediante el uso de algoritmos de aprendizaje automático, que pueden analizar millones de puntos de datos. Estos pueden incluir detalles de delitos pasados ​​e identidades de delincuentes, que se pueden combinar con inteligencia local, historial de redes sociales y datos de teléfonos móviles. Los sistemas de inteligencia artificial están capacitados para detectar correlaciones y patrones dentro de los datos para, por ejemplo, aprender el modus operandi de los delincuentes y hacer predicciones sobre dónde es probable que ocurran futuros delitos y quién puede convertirse en víctima o perpetrador de violencia.

Desde el inicio de la tecnología, ha habido un gran optimismo de que permitiría a la policía pasar de la vigilancia tradicional a la vigilancia basada en inteligencia, o de un enfoque reactivo a uno proactivo, previniendo en lugar de tener que resolver delitos. Esto beneficiaría no solo a las víctimas y a la sociedad en su conjunto, sino también a los perpetradores, quienes podrían evitar ingresar al sistema de justicia penal y los efectos perjudiciales que esto a menudo tiene en sus oportunidades de vida.

Problemas de montaje

Sin embargo, existe una preocupación creciente de que este uso de datos tenga un impacto negativo en las libertades civiles y las comunidades. Jordan-McBride, Pide un enfoque más cauteloso de la vigilancia policial predictiva. “Vivimos en una sociedad que depende cada vez más de la IA”, dice, “pero esto no da luz verde a aplicaciones como la vigilancia policial predictiva sin profundizar en cómo funciona y cómo afecta a las comunidades”.

A McBride también le preocupa cómo la tecnología afecta a las comunidades BAME. Algunos sistemas se centran en la ubicación, tratando de predecir dónde y cuándo es probable que ocurran delitos futuros, mientras que otros intentan prevenir delitos identificando a las personas que tienen más probabilidades de convertirse en víctimas o perpetradores de delitos. Para compilar la lista, el sistema analiza a los residentes con un historial de violencia y actividad delictiva, así como a las personas a las que están afiliados, a través de, por ejemplo, actividad de pandillas o historial de redes sociales.

Mecole encuentra esto profundamente problemático porque sostiene que los datos utilizados reproducen los prejuicios raciales existentes en la sociedad, arriesgando un nuevo tipo de perfil. Ella dice: “Algunas comunidades de color ya están excesivamente controladas, y estos algoritmos simplemente están reproduciendo esto, centrándose desproporcionadamente en ellas”.

Mecole observa cómo esto está alienando a las mismas personas a las que las agencias están tratando de proteger y que se sienten no solo atacadas sino ocupadas. “En algunos vecindarios, hay policías en cada esquina, que parecen estar esperando que suceda algo. Eso envía un mensaje negativo. Aliena a las personas y erosiona la confianza, creando un círculo vicioso “.

Pero no solo afecta a las personas que tienen antecedentes penales, ya que estos sistemas también pueden capturar las identidades de las conexiones sociales, incluidos amigos y familiares. Mecole dice: “Obliga a las personas a tomar decisiones difíciles. Por ejemplo, no he tenido contacto con las fuerzas del orden público pero, si quisiera mantenerme conectado con un miembro de la familia que si lo tuvo, tendría que enfrentar una invasión de mi privacidad en un nivel muy granular, como ser incluido en listas de mapas estratégicos, lo que me pone en la mira de las fuerzas del orden “.

Los defensores de la libertad civil argumentan que esto no solo viola las libertades asociativas, sino que también va en contra de una expectativa razonable de privacidad. También existe preocupación por la falta de transparencia, ya que a menudo no existe una manera fácil de ver la lista y qué tipo de información se guarda, rectificar errores o eliminarse de ella.

Hasta ahora, la evidencia de cuán efectivos son estos sistemas es mixta y difícil de evaluar, en particular, ya que los aumentos moderados en los delitos resueltos en el corto plazo podrían verse compensados ​​por el impacto perjudicial que esto tiene en algunas comunidades a largo plazo.

Si bien Axon reconoce el potencial de la vigilancia basada en datos, Axon no está desarrollando actualmente dichas tecnologías y trabaja en estrecha colaboración con su junta de ética para asegurarse de que cualquier solución que brinde la compañía sea efectiva y ética.

Involucrar a las comunidades

Mecole pregunta: “¿Qué mensaje envía a las comunidades cuando las fuerzas policiales invierten millones en inteligencia artificial en lugar de establecer relaciones con estas comunidades o invertir en servicios sociales muy necesarios, que evitarían algunos de los problemas que conducen a actividades delictivas? Hay una ausencia de aportes de las comunidades, así como de transparencia ”.

¿Cree que la vigilancia policial predictiva sería más adecuada para el Reino Unido, donde las comunidades tienden a estar más mezcladas? “Se ve diferente pero, en el fondo, existe la posibilidad de que exista el mismo sesgo institucional y sistémico, que se replica en la IA”, dice. En el caso de Chile, es evidente la poca comunicación entre las instituciones y las comunidades, un problema que viene creciendo en los últimos años.

Por último, ¿podría haber un nuevo tipo de inteligencia artificial, desarrollado para integrar la justicia en un sistema policial tan predictivo? “No diré que la IA no tiene un lugar en la vigilancia”, dice Mecole, “pero la tecnología nunca reemplazará la construcción de relaciones, la sensibilidad a los problemas sociales y la confianza. Necesitamos tener estas difíciles conversaciones. Creo que Axon está haciendo precisamente eso al trabajar con una junta de ética, así que felicitaciones a ellos. Somos una junta independiente, por lo que no tienen que seguir nuestros consejos, pero siempre han escuchado y observado nuestras recomendaciones, y creo que esto los está ayudando a tener éxito”. Y, dice Mecole, es exactamente este compromiso el que puede permitir el desarrollo de una IA menos sesgada en el futuro. “Nada es imposible.”

0 comentarios

Dejar un comentario

¿Quieres unirte a la conversación?
Siéntete libre de contribuir

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *