Microsoft mejora el software de reconocimiento facial racista – @Microsoft

En un movimiento autocomplaciente, hoy Microsoft anunció algunas mejoras importantes en su software de reconocimiento facial, el cual es fundamentalmente preferencial.

La Face API basada en Azure recibió críticas en un trabajo de investigación a principios de este año por su tasa de error —tan alta como de 20,8 %— cuando se intentaba identificar el género de las personas afrodescendientes, en especial a las mujeres con tonos de piel más oscuros. En contraste, la IA de Microsoft pudo identificar el sexo de las fotos de “rostros masculinos más claros” con una tasa de error del 0 %.

Al igual que otras compañías que desarrollan tecnología de reconocimiento facial, Microsoft no tenía suficientes imágenes de personas afrodescendientes o de un tono de piel moreno, y eso se reflejó en los resultados de las pruebas de reconocimiento.

La publicación del blog de Microsoft hoy pone la responsabilidad principalmente en los datos que usó al construir el software de reconocimiento facial, en donde afirmó que tales tecnologías son “tan buenas como los datos usados para capacitarlas.” Al tomar en cuenta la situación, la solución más clara era un nuevo conjunto de datos que tiene más imágenes de personas morenas.

“El equipo de Face API hizo tres cambios importantes. Expandieron y revisaron los datos de capacitación y puntos de referencia, lanzaron nuevos resultados de recopilación de datos para mejorar aún más los datos de capacitación al enfocarse específicamente en el tono de piel, género y edad. También, mejoraron el clasificador para producir resultados de mayor precisión.”

Con el último lote de mejoras, Microsoft afirmó que pudo reducir las tasas de error para hombres y mujeres con piel más oscura hasta en 20 veces. Para todas las mujeres, la firma dijo que las tasas de error se redujeron en nueve veces.

Un vistazo rápido a la página de Face API de Microsoft te da una pista de por qué el software de reconocimiento podría no ser tan bueno para identificar caras más oscuras:

En la publicación del post, la investigadora principal de Microsoft, Hanna Wallach, abordó uno de los fallos más generales de la industria, y señaló cómo los datos generados por una sociedad preferencial conducirían a resultados parciales cuando se trataba de entrenar sistemas de aprendizaje automático.

Wallach afirmó: “Tuvimos conversaciones sobre diferentes maneras de detectar las preferencias y trabajar en la equidad. También hablamos sobre los resultados de recopilación de datos para diversificar los datos de capacitación y hablamos de diferentes estrategias para probar internamente nuestros sistemas antes de implementarlos”.

El fracaso aquí fue que únicamente la tecnología no funcionara correctamente para cualquiera que no fuera blanco y hombre. De la misma manera, los problemas no terminan cuando Microsoft se vuelve realmente bueno en la identificación y el género de las personas afrodescendientes y morenas.

En enero, Microsoft declaró que ICE usaría su servicio Azure Government Cloud, en parte para “procesar los datos en dispositivos periféricos o usar capacidades de aprendizaje profundo para acelerar el reconocimiento facial y la identificación”.

Hasta ahora, el anuncio ha llevado a que los empleados soliciten a la firma cancelar su contrato con la agencia gubernamental.

Incluso si la tecnología de reconocimiento facial se vuelve menos preferencial, todavía puede convertirse en un arma de doble filo para las personas afrodescendientes.

El lunes, el CEO de Kairos y fundador del reconocimiento facial, Brian Brackeen, escribió en una página de opinión en donde explicaba cuán peligrosa puede ser la tecnología en manos del gobierno y la policía.