Jeanna Matthews: «Debemos trabajar en decisiones automatizadas que reduzcan los prejuicios y protejan los derechos humanos»

La experta en ciencias de la comunicación participó del XII Encuentro Sociedad y Tecnologías de la Información y expuso sobre la posibilidad de controlar algoritmos y plataformas en el ámbito de la justicia penal.

Para Jeanna Mattews controlar algoritmos y plataformas es algo sumamente importante, porque «tienen un gran impacto en nuestra vida, desde cómo encontramos una pareja o un empleo hasta decisiones penales que se tomen en nuestros países», aseguró la experta que integra el comité de políticas de tecnología de ACM, en el XII Encuentro Sociedad y Tecnologías de la Información.

«Todos nosotros estamos conduciendo nuestros pequeños carros en el camino de la vida. A medida que conducimos, vamos dejando un flujo digital con nuestros datos personales que pueden llegar a ser permanentes. Entonces lo que debemos pensar es: ¿qué es lo peor que nos puede pasar con nuestros datos?«, comenzó su presentación.

Mattews menciona que los miedos de las personas siempre van orientados hacia un posible control gubernamental o la exposición de su información a través de hackers. «Pero hay algo que es aún peor: la posibilidad de que nuestras opiniones y acciones puedan ser manipuladas«, asegura la experta.

«Las plataformas usan nuestros datos para predecir cómo manipularnos y atraernos a ciertos caminos que quieren que vayamos. En este proceso de automatización y mudanza hacia nuevas plataformas nunca nos hemos preguntado si estamos cambiando los principios fundamentales en que se han construido nuestras sociedades. Y mucho menos, qué estamos haciendo para asegurar y verificar estos nuevos sistemas», añade la Mattews.

Para la experta del ACM las decisiones de un software pueden ser mejores a simple vista, sin embargo están llenas de prejuicios de quienes escriben los códigos. Pues, para tomar decisiones el programa utiliza datos del pasado que no siempre coinciden con la realidad actual de la sociedad.

En Estados Unidos estos programas de Inteligencia Artificial están siendo muy utilizadas en los procesos judiciales y hay demasiada confianza en los resultados. En junio del 2011 fue conectado un programa de reconocimiento genético y fue utilizado sin problemas hasta el año 2017, pues había evaluado más de 1.300 casos serios de asesinatos. En 2016 se solicitó la primera revisión del código y el perito encontró un fuerte determinante de raza en las decisiones del programa.

Para solucionar este problema, Matthews dice que se debe comenzar a exigir informes de errores del programa, los planes y resultados de pruebas internas, evaluaciones de riesgos, y «ojalá que sea en un código abierto». Asimismo, debe haber un derecho de poder hacer públicos los defectos encontrados y permitir y facilitar la ejecución de pruebas independientes a estos Software.

«Si queremos una toma de decisiones automatizadas que reduzcan los prejuicios y protejan los derechos de las personas, debemos trabajar en ellos. Si queremos algo mejor, tendremos que exigir algo mejor», concluye Jeanna Mattews.

[Mowplayer-Video ID=nVYHbTE8YxQ]

Deja una respuesta

Su dirección de correo electrónico no será publicada.

El Periodista