IA-amazon

Les spécialistes de l’apprentissage automatique d’Amazon (AMZN.O) ont découvert un gros problème: leur nouveau moteur de recrutement n’aimait pas les femmes. L’équipe avait mis au point des programmes informatiques depuis 2014 pour examiner les curriculums vitae des candidats à un poste dans le but de mécaniser la recherche des meilleurs talents, ont déclaré à Reuters cinq personnes familiarisées avec ce système.

L’IA de recrutement n’aimait pas les femmes

L’automatisation a joué un rôle-clé dans la domination du commerce électronique par Amazon, que ce soit dans les entrepôts ou dans la prise des décisions en matière de tarification. L’outil d’embauche expérimental de la société utilisait l’intelligence artificielle pour donner aux candidats des notes allant de 1 à 5 étoiles – un peu comme les clients évaluent les produits sur Amazon, selon certaines personnes.

«Tout le monde voulait ce Saint Graal», a déclaré l’une des personnes. « Ils voulaient littéralement que ce soit un moteur dans lequel je vais vous donner 100 curriculums vitae, ce seront les cinq meilleurs, et nous les emploierons. » Mais en 2015, la société a réalisé que son nouveau système ne notait pas les candidats aux postes de développeurs de logiciels, ni aux autres postes techniques de manière non sexiste.

En effet, les modèles informatiques d’Amazon ont été formés pour examiner les candidatures en observant les modèles de curriculum vitae soumis à la société sur une période de 10 ans. La plupart venaient d’hommes, ce qui reflétait la domination des hommes dans l’industrie des technologies.

Il a lui-même appris que les candidats masculins étaient préférables

En réalité, le système d’Amazon a lui-même appris que les candidats masculins étaient préférables. Il reprenait les mots pénalisés qui incluent le mot «femmes», comme dans «capitaine de club d’échecs pour femmes», et il avait déclassé les diplômés de deux collèges entièrement féminins, selon des personnes au fait de ce sujet.

Amazon a modifié les programmes pour les rendre neutres par rapport à ces termes particuliers. Mais cela ne garantissait pas que les machines ne trouveraient pas d’autres moyens de trier les candidats susceptibles de se révéler discriminatoires, ont déclaré ces personnes.

La société de Seattle a finalement dissous l’équipe au début de l’année dernière parce que les dirigeants avaient perdu tout espoir quant au projet, d’après les personnes qui parlaient sous le couvert de l’anonymat. Les recruteurs d’Amazon ont examiné les recommandations générées par cet outil lors de la recherche de nouveaux employés, mais ils ne se sont jamais appuyés uniquement sur ces classements, ont-ils déclaré.

Amazon a refusé de commenter le moteur de recrutement ou ses défis, mais la société affirme son engagement en faveur de la diversité et de l’égalité des lieux de travail.

Les limites de l’apprentissage automatique

L’expérience d’Amazon, que Reuters est le premier à signaler, offre une étude de cas sur les limites de l’apprentissage automatique. Il sert également de leçon à la liste croissante de grandes entreprises, notamment Hilton Worldwide Holdings Inc (HLT.N) et Goldman Sachs Group Inc (GS.N), qui cherchent à automatiser des parties du processus de recrutement.

Selon un sondage réalisé en 2017 par la société de développement de logiciels CareerBuilder, environ 55% des responsables américains des ressources humaines ont déclaré que l’intelligence artificielle, ou IA, ferait partie de leur travail habituel.

Les employeurs rêvent depuis longtemps de tirer parti de cette technologie pour élargir le réseau d’embauche et réduire le recours aux opinions subjectives des recruteurs. Mais des informaticiens tels que Nihar Shah, qui enseigne l’apprentissage automatique à la Carnegie Mellon University, affirment qu’il reste encore beaucoup à faire.

« Comment s’assurer que l’algorithme est juste, comment s’assurer que l’algorithme est vraiment interprétable et explicable – cela est encore assez loin [d’être la réalité] », a-t-il déclaré.

Source : Reuters