30.9 C
Santo Domingo
lunes, julio 8, 2024

El jefe de policía de Detroit dice que el «trabajo de investigación deficiente» condujo al arresto de una madre negra que afirma que la tecnología de reconocimiento facial desempeñó un papel



CNN

El jefe de policía de Detroit culpó el miércoles al “trabajo de investigación deficiente”, no al uso de la tecnología de reconocimiento facial, por el arresto de una madre negra que afirma en una demanda que fue arrestada falsamente a principios de este año mientras estaba embarazada de ocho meses.

Porcha Woodruff, de 32 años, estaba en casa una mañana de febrero ayudando a sus hijos de 6 y 12 años a prepararse para la escuela cuando seis policías de Detroit llegaron a su puerta con una orden de arresto por robo y robo, según una demanda federal que presentó. la semana pasada. La esposaron, la llevaron a la cárcel y la ficharon, dice la demanda.

El miércoles, el jefe de policía de Detroit, James White, dijo a los periodistas que fue el trabajo inadecuado de su departamento en el caso lo que condujo al arresto.

“No tengo motivos para concluir en este momento que ha habido violaciones de la política de reconocimiento facial del DPD”, dijo White durante una conferencia de prensa el miércoles. “Sin embargo, he llegado a la conclusión de que ha habido una serie de violaciones de la política por parte del investigador principal en este caso”.

White realizó la conferencia de prensa para abordar las acusaciones que hizo Woodruff en su presentación. la semana pasada a partir del arresto del 16 de febrero.

Woodruff dijo que se enteró de que estaba implicada en el presunto incidente después de que el software de reconocimiento facial golpeó, así como la supuesta identificación de la víctima del robo de auto en una fila de seis fotos que incluían su ficha policial de un arresto de 2015, según la denuncia.

La demanda también alega que la policía de Detroit participó “en un patrón de discriminación racial de (Woodruff) y otros ciudadanos negros mediante el uso de prácticas de tecnología de reconocimiento facial que se ha demostrado que identifican erróneamente a los ciudadanos negros en una tasa más alta que otros en violación de la protección igualitaria garantizada por” Ley de derechos civiles de Michigan de 1976.

El jefe de policía dijo que un detective involucrado en el caso presentó incorrectamente una imagen generada por tecnología de reconocimiento facial a la víctima, lo que violó la política del departamento de no usar fotos de reconocimiento facial en las ruedas de reconocimiento.

El software de reconocimiento facial, dijo White, le dio al investigador docenas de posibilidades de quién era el sospechoso y estaba destinado a ser el «lanzamiento del punto de investigación» para que los detectives determinaran quién debería presentarse en una rueda de fotos.

“Esto es un trabajo de investigación muy, muy deficiente que llevó a que se tomaran una serie de decisiones inapropiadas a lo largo de las líneas de la investigación, y eso es algo que este equipo se compromete no solo a corregir, a tener responsabilidad, a tener transparencia con esta comunidad, y en la creación de políticas de inmediato para garantizar que, independientemente de la herramienta que se utilice, esto nunca suceda”, dijo White.

El Departamento de Policía de Detroit planea implementar tres reformas en respuesta al incidente, dijo White. Esos incluyen exigir una razón independiente para creer que un sospechoso presentado en una rueda de reconocimiento podría haber cometido el delito.

La demanda se produce cuando la tecnología de reconocimiento facial y sus riesgos potenciales están bajo escrutinio, ya que los expertos advierten sobre la tendencia de la IA hacia los errores y el sesgo, junto con los peligros del uso inexacto del reconocimiento facial.

En los últimos años, los investigadores han advertido contra el uso generalizado de tecnologías como el reconocimiento facial que pueden conducir a la discriminación por raza o género.

Un estudio de 2019 realizado por el gobierno de los Estados Unidos encontró que muchos algoritmos de reconocimiento facial eran es mucho más probable que identifique erróneamente a las minorías raciales que los blancos. Los nativos americanos, negros y asiáticos tenían desproporcionadamente más probabilidades de verse afectados, según el estudio del Instituto Nacional de Estándares y Tecnología.

Las pruebas encontraron que algunos algoritmos tenían hasta 100 veces más probabilidades de confundir a dos personas diferentes que no eran blancas, dijo la agencia en ese momento. Ante esas preocupaciones, varias ciudades de todo el país han prohibido el uso del reconocimiento facial por parte de los funcionarios de la ciudad, incluidas San Francisco y Somerville, Massachusetts.



Source link

Related Articles

Ultimos Articulos