miércoles 20.11.2019
El trabajo de campo fallido de Google

Google investiga un posible sesgo racial en su algoritmo

El gigante de internet ofrecía un cheque regalo de cinco dólares por obtener información facial de indigentes y estudiantes. 
Reconocimiento facial
Reconocimiento facial

Google reconoce la suspensión de su último trabajo de campo para mejorar el reconocimiento facial de su próximo dispositivo, el Smartphone Píxel 4. Personas vulnerables como estudiantes y mendigos cedían su rostro para hacer pruebas a cambio de un vale regalo de cinco dólares

La controversia comenzó en Atlanta (EE. UU), donde se estaban realizando los estudios a través de una subcontrata llamada Randstad -agencia contratada por Google para recabar la información y obtener una amplia base de todos faciales-. Como denuncia un trabajador de la compañía, “buscaban a ese segmento de la población porque es más sencillo que no hablen con los medios”. Pero no acaba ahí, ya que la compañía se habría centrado minuciosamente en un segmento perteneciente a las minorías raciales, como son las personas de raza negra, ya que numerosas críticas tachan a Google de no ser tan precisos en la identificación como con personas de piel clara.

Se ha comprobado cómo el reconocimiento facial no funciona de igual manera dependiendo de la raza y el sexo. Es menos preciso en mujeres y, sobre todo, en personas negras. Esto crea una desigualdad racial al degradar la imagen de estos con las consecuencias que puede conllevar un fallo en el reconocimiento.

Esta tecnología ha estado en entredicho desde un principio. Por este motivo Amazon sufrió numerosas criticas debido a prejuicios raciales en sus algoritmos de coincidencia de rostros.

"Nos sorprendió el aparente fallo de Amazon en comprender las implicaciones de su propio producto en personas reales", dice Matt Cage, un trabajador de la compañía. “El reconocimiento facial es una tecnología sesgada. No hace que las comunidades sean más seguras. Simplemente impulsa aún más la vigilancia y la vigilancia discriminatorias". Como recoge en un articulo The New York Times, en una prueba realizada con los miembros de la cámara legislativa de EE. UU, el reconocimiento facial habría condenado por equivocación a 28 legisladores miembros del caucus negro.

Reconocmiento facial

Los "28" criminales de la UCLA

Jacob Snow, abogado especialista en libertades civiles y tecnología que trabaja en el norte de California con la ACLU (Unión Estadounidense de Libertades Civiles), afirma que “esta prueba confirma que el reconocimiento facial tiene fallas, es prejuicioso y peligroso”.

Diferencia en el reconocimiento facial por razas y género. 

 

La preocupación principal son las identificaciones falsas. Normalmente, la policía utiliza esta tecnología de reconocimiento facial para encontrar sospechosos, comparando con fotos y vídeos. El punto de la cuestión está en que el sistema detecta menos errores en los sujetos blancos que en los sujetos negros, un sesgo encontrado en varios algoritmos. Esto hace que el sistema represente una amenaza adicional de acusaciones y arrestos injustos en personas de piel oscura.

Los programas que reducirán el sesgo racial.

Un grupo de investigadores del Instituto de Tecnología de Massachusetts (MIT) ha mejorado un algoritmo de reconocimiento facial que reduce el sesgo racial y de genero en un 60% respecto a los anteriores algoritmos de la Inteligencia Artificial (IA)

Un estudio realizado en 2018 expone el margen de error en el reconocimiento facial en el que variaba dependiendo de la raza y el género del sujeto. El estudio estaba basado en los sistemas de Facebook, IBM, Microsoft y Watson. En la prueba se mostraban diferentes fotografías y se observó como el margen de error era mayor en el reconocimiento de mujeres y que, además, cuando el sujeto a analizar es de piel oscura aumenta el error considerablemente.

Con el nuevo algoritmo se ha reducido a más del 60% el sesgo racial, gracias a una innovación en desarrollo del programa que permite identificar y minimizar cualquier sesgo oculto.

El programa desarrollado por el MIT puede analizar un conjunto de datos y saber más allá de lo que hay en la base de datos con un sistema de aprendizaje y posibles variantes en los reconocimientos sin necesidad de un programador humano. Alexander Amini, jefe del grupo de investigación del MIT, explica que la corrección del sesgo es «especialmente importante en tanto que empezamos a ver este tipo de algoritmos en seguridad, cuerpos policiales y otros dominios».

Comentarios