? Foto: Pixabay
Boston, 30/01/2019(El Pueblo en Línea) - Un estudio del Instituto Tecnológico de Massachusetts (MIT) reveló que Rekognition -un software de reconocimiento facial de Amazon, utilizado por las autoridades estadounidenses en la frontera con México- no se desempe?a bien a la hora de identificar a mujeres o personas de piel más oscura, destaca Sputnik.
Los investigadores, liderados por Joy Buolamwini, llegaron a esta conclusión después de someter a Rekognition a una serie de pruebas.
En particular, descubrieron que el software no cometió errores a la hora de identificar a los hombres con piel más clara. Sin embargo, confundió mujeres con hombres el 19% de las veces, mientras que su margen de error alcanzó el 31% a la hora de identificar a mujeres de piel más oscura, informó el portal The Verge.
De acuerdo con Amazon, los investigadores no probaron la última versión de Rekognition. Y la empresa consideran que la prueba de identificación fue realmente un análisis facial (que detecta expresiones y características como vello) y no una identificación (que hace coincidir caras escaneadas con las fotografías).
Joy Buolamwini busca concienciar a la sociedad sobre el sesgo que hay en este software de reconocimiento facial para que las compa?ías produzcan programas más precisos y más éticos, minimizando el efecto de "mirada codificada".
"[La mirada codificada] Es la reflexión de prioridades, preferencias, y a veces prejuicios de aquellas personas que tienen la capacidad de desarrollar las tecnologías", declaró Buolamwini en el Foro Económico Mundial Davos 2019.
Esta investigación no es la única que ha detectado el mal desempe?o de Rekognition.