Empresas & Management

Amazon «despide» a su Inteligencia Artificial de reclutamiento por sexista

El programa llegó a la conclusión de que los hombres eran mejores candidatos y tendía a dotarles de mayor puntuación al revisar su currículum.

2018-10-11

Por elmundo.es

En 2014 Amazon decidió poner gran parte del peso en sus procesos de contratación de personal y recursos humanos en manos de inteligencias artificiales desarrolladas en el seno de la compañía para optimizar los esfuerzos en materia de captación de talento y encontrar el candidato ideal para cada puesto.

La filosofía tras este proyecto era sencilla: emplear los mismos procesos de automatización que habían llevado a la compañía hasta la cima del ecommerce mundial para seleccionar a sus empleados.

Sin embargo, descubrieron que esta inteligencia artificial discriminaba sistemáticamente a las mujeres.Imitando el sistema de valoración de productos en su web, la inteligencia artificial de Amazon valoraba a los candidatos con una puntuación entre una y cinco estrellas.

'Era como el Santo Grial, todo el mundo lo quería', admite uno de los empleados a Amazon en declaraciones a Reuters. 'Querían que fuera un sistema en el que introducías 100 currículums para que seleccionase los cinco mejores, que serían los que acabarían contratados', asegura.

Sin embargo, un año después de poner en marcha el proyecto, sus desarrolladores descubrieron que el programa discriminaba sistemáticamente a las mujeres y prefería contratar a los hombres, especialmente en trabajos con un perfil técnico o para el desarrollo de software.

La razón tras esta discriminación parecía ser que la inteligencia artificial estaba entrenada con los perfiles de antiguos candidatos que habían intentado trabajar en la empresa durante los últimos 10 años, que mostraban un dominio masculino dentro del sector.

La inteligencia artificial de Amazon aprendió así que los hombres eran mejores candidatos que las mujeres y penalizaba los currículums que contenían palabras como 'mujeres' o 'capitán del club de mujeres'. Asimismo, penalizaba a las candidatas que habían estudiado en facultades exclusivamente femeninas.

Cuando los ingenieros se dieron cuenta de esta tendencia, volvieron a configurar la lógica de la inteligencia artificial para que no tuviese en cuenta esos términos. Sin embargo, no existía ningún tipo de garantía de que el algoritmo no fuese a encontrar otras formas de discriminar a los candidatos por razones de género. Finalmente, el equipo a cargo de este proyecto fue desmantelado.

Sin embargo, los encargados de la selección de personal continuaron empleando la herramienta, aunque solo como un apoyo y teniendo en cuenta otras consideraciones más allá de la clasificación empleada en la inteligencia artificial.

12 ejemplares al año por $75

SUSCRIBIRSE