ONU emitió recomendaciones para evitar sesgos raciales en algoritmos de vigilancia

Un comité de la Naciones Unidas emitió hoy una recomendación para que los agentes de seguridad de los 182 países adheridos a la Convención sobre la Eliminación de Todas las Formas de Discriminación Racial puedan combatir los prejuicios, y alertó sobre los sesgos raciales de los algoritmos de inteligencia artificial utilizados por la policía para reconocimiento facial.(Télam)

El documento del Comité para la Eliminación de la Discriminación Racial de ONU, integrado por 18 especialistas, señaló que el mayor uso por parte de las fuerzas del orden de los macrodatos, la inteligencia artificial, el reconocimiento facial y otras nuevas tecnologías «corre el riesgo de profundizar» el racismo, la discriminación racial, la xenofobia y, en consecuencia, la violación de muchos derechos humanos.

“Los macrodatos y las herramientas de inteligencia artificial pueden reproducir y reforzar los prejuicios ya existentes y dar lugar a prácticas aún más discriminatorias», dijo la jamaiquina Verene Shepherd, integrante del Comité que dirigió la redacción de la recomendación general.

«Estamos profundamente preocupados por los riesgos particulares cuando se utiliza el perfil algorítmico para determinar la probabilidad de actividad delictiva”, agregó la especialista en derechos humanos.

Ejemplificó contando que los datos históricos de arrestos sobre un vecindario «pueden reflejar prácticas policiales con prejuicios raciales, y esos datos profundizarán el riesgo de vigilancia excesiva en el mismo vecindario, lo que a su vez puede conducir a más arrestos, creando un circuito de retroalimentación peligroso”.

El uso cada vez mayor de tecnologías de reconocimiento y vigilancia facial para rastrear y controlar datos demográficos específicos genera preocupaciones con respecto a muchos derechos humanos, incluidos los derechos a la intimidad, la libertad de reunión pacífica y asociación, la libertad de expresión y libertad de movimiento, resaltó ONU en su portal de noticias.

Entre sus recomendaciones, el Comité destacó que los sistemas de elaboración de perfiles algorítmicos deberían cumplir plenamente con el derecho internacional de los derechos humanos.

Y subrayó la importancia de la transparencia en el diseño y la aplicación de sistemas de elaboración de perfiles algorítmicos cuando se implementan con fines policiales.

El Comité resaltó que las empresas privadas que desarrollan, venden u operan sistemas de elaboración de perfiles algorítmicos con fines de aplicación de la ley «también tienen la responsabilidad de involucrar a personas de diversos sectores, incluidos expertos legales, para evaluar el riesgo de violación de los derechos humanos que tales sistemas pueden plantear».

Los sistemas se usan en Argentina, y en mayo del año pasado el Relator Especial de las Naciones Unidas sobre el Derecho a la Privacidad, Joseph Cannataci, que estuvo 12 días en el país investiga

Deja una respuesta

Su dirección de correo electrónico no será publicada.

El Periodista