Les algorithmes nous connaissent-ils mieux que nos supérieur-e-s?

Getty Images/istockphoto / Metamorworks

Une évaluation sans préjugés des collaboratrices et collaborateurs, voilà ce que promettent les «People Analytics» par le biais de l’intelligence artificielle. Les algorithmes garantiraient la diversité plutôt que l’uniformité, l’objectivité en lieu et place de la subjectivité. Mais cela fonctionne-t-il vraiment? N’assiste-t-on pas plutôt à une forme de standardisation?

Ce contenu a été publié le 03 janvier 2022 – 10:41


Plus d’articles de cet auteur / cette autrice
| Rédaction en langue arabe

Google, Amazon et Microsoft ne jurent que par elles: «Work Force Analytics» ou «People Analytics». Toutes deux réfèrent à des méthodes d’analyse des données portant sur le personnel. Le tout en lien avec divers éléments et indicateurs opérationnels de l’entreprise. Ces techniques reposent sur l’analyse des candidates et candidats ou des collaboratrices et collaborateurs au travers de questionnaires standardisés. Il s’agit de véritables tests de personnalité souvent conduits au moyen de questions à échelle.

«Je préfère travailler seul.» Sur une échelle de 1 à 10, quelle est votre réponse? «Même dans les situations tendues, je reste calme.» Que ressentez-vous au moment de répondre à celle-ci? Les réponses à une multitude de questions de ce genre débouchent ensemble sur un profil de personnalité.

Et du point de vue de l’entreprise, les interrogations sont plus larges encore. Les erreurs décisionnelles en matière de personnel peuvent en effet avoir de coûteuses conséquences. Les méthodes «People Analytics» sont censées réduire ce risque. Par leur entremise, préférences et préjugés personnels des recruteuses et recruteurs sont éliminés et les rôles normatifs désamorcés. Seul-e-s les candidates et candidats les plus indiqué-e-s doivent être repéré-e-s et promu-e-s. Une des promesses de cette approche est que les minorités et les groupes fréquemment défavorisés dans le monde du travail entrent aussi en ligne de compte.

Les analyses «People Analytics» sont aujourd’hui largement répandues – en Suisse aussi. Deloitte, une des principales firmes mondiales de l’audit et du conseil, a enquêté sur leur implantation dans les entreprises helvétiques. Selon son rapport de 2020, quatre sociétés interrogées sur cinq tiennent les «People Analytics» pour importantes ou très importantes. Elles s’attendent aussi à ce que leur rôle s’accroisse dans les prochains deux à cinq ans.

Pourquoi la diversité est un avantage

Ces outils impactent également deux thématiques à la fois pertinentes et très actuelles: la diversité et l’inclusion. Nombreuses sont les entreprises qui analysent aujourd’hui leurs scores en matière de genre, d’ancienneté et de salaire. De toute évidence, la diversité est toujours plus souvent envisagée comme une préoccupation dépassant la seule question du genre, écrit même Deloitte dans son rapportLien externe.

Plus prosaïquement, diversité et réussite financière vont de pair. Selon une étude du McKinsey Global Institute portant sur mille entreprises de 15 pays, une forte diversité de genres au sein de la firme fait augmenter de 25% sa probabilité d’être plus rentable que la moyenne. Une valeur qui atteint même 36% si l’on considère la diversité ethnique.

S’agissant de la promotion des femmes, la question ne se pose pas tant en terme de diversité que d’égalité. Égalité des droits et des chances. Or, il est difficile de déprogrammer les préjugés nichés dans nos têtes.

Professeure à l’Université de Harvard, Iris Bohnet attribue un rôle important aux «People Analytics». «Il est beaucoup plus facile de programmer des algorithmes sans préjugés que de changer des millions d’humains», lance-t-elle. Celle qui est aussi membre du conseil d’administration de Credit Suisse Group voit toutefois un danger: les erreurs potentielles ont un impact incommensurablement plus large puisque ces outils sont utilisés sur des millions de personnes. Avec les processus de sélection traditionnels, les erreurs décisionnelles concernent le plus souvent un groupe restreint d’individus – avec les «People Analytics», les effets sont démultipliés.

«Il est beaucoup plus facile de programmer des algorithmes sans préjugés que de changer des millions d’humains»

Iris Bohnet, Professeure à l’Université de Harvard

End of insertion

L’intelligence artificielle est à double tranchant

En situation de stress, les algorithmes peuvent protéger des préjugés, estime Joanna BrysonLien externe, professeure d’éthique et de technologie à la Hertie School de Berlin. Lorsqu’un ou une recruteuse parcourt des centaines de candidatures, la rapidité est de mise. Il ou elle succombe alors aisément à des préjugés implicites – même si l’objectif est de former une équipe diversifiée. Joanna Bryson, dont les recherches débusquent les effets de la technologie sur la collaboration humaine, voit donc l’intelligence artificielle comme une chance. Elle permettrait aux responsables de dépasser leurs propres limitations et d’avoir la main plus heureuse. Parmi les candidats et candidates qui émergent, il en est souvent «qui ne pouvaient être vues auparavant» par la personne recruteuse.

Mais sa propre étudeLien externe sur la langue anglaise a aussi montré que les algorithmes peuvent présenter les mêmes préjugés implicites que les humains, «étant donné qu’ils apprennent à partir de notre base de données à nous». La prudence est donc de mise, en particulier lors de la phase de programmation de l’IA. «Sinon, le danger est de voir les préjugés implicites confortés par les People Analytics», assure la mathématicienne.

deux chercheuses et un chercheurLien externe du MIT et de l’Université de Columbia, qui ont développé puis testé différents modèles d’algorithmes. Leur constat est qu’il existe de notables différences selon que les programmes limitent leur champ aux candidates et candidats au succès éprouvé ou qu’ils prennent en compte le potentiel des personnes issues de groupes sous-représentés. L’étude conclut qu’en se fixant sur le potentiel, le recrutement s’améliore et gagne en diversité. Les firmes dont les algorithmes ne reposent que sur la réussite démontrée, en revanche, risquent de passer à côté de candidats et candidates de valeur et de milieux variés.

«Les responsables doivent réfléchir»

«C’est pourquoi une entreprise doit se poser certaines questions dès l’acquisition d’un programme», estime Simon Schafheitle, du Forschungsinstitut für Arbeit und Arbeitswelten de l’Université de Saint-Gall. Il s’agit par exemple de vérifier si l’équipe derrière l’algorithme est elle-même orientée diversité. Le chercheur envisage un autre challenge. Les décideurs ont souvent le sentiment que la technologie est une panacée. Pourtant, c’est fréquemment le contraire. «Lorsque le résultat de l’algorithme contredit la vision des responsables, il s’agit de décider de la façon de réagir.» À qui donner sa préférence? Au coûteux programme ou au/à la responsable RH pas née de la dernière pluie? De fait, l’algorithme calcule la candidature optimale, pas forcément la meilleure. Il n’est pas impossible que le ou la créative transversale soit mieux adapté-e au poste à repourvoir que le ou la carriériste qui remplit toutes les cases.

Dans la réalité analogique, milieu culturel et culture d’entreprise impactent fortement le résultat d’une embauche, comme le montre la recherche empirique. L’issue elle-même n’est pas comprise de manière uniforme. «Ces observations, on peut tout à fait les transposer au monde numérique», assure Simon Schafheitle.

Iris Bohnet, pour sa part, y va d’une suggestion. Elle recommande la création d’une autorité de contrôle qui fixerait les critères d’introduction et les conditions d’utilisation des algorithmes avant leur mise sur le marché. «Après tout, nous n’utilisons jamais de nouveaux médicaments humains sans les avoir testés dans le cadre d’études ad hoc.»

Articles mentionnés