Belgique

Recrutement par IA : ne pas négliger les risques de discrimination.

Selon une étude menée par l’ULiège et l’Université de Hasselt auprès de 400 professionnels du recrutement, trois quarts des recruteurs ont recours à l’IA, principalement lors de la phase préparatoire. En février 2025, les premières dispositions du règlement européen sur l’intelligence artificielle (IA ACT) sont entrées en vigueur, encadrant l’utilisation et le développement de l’IA.

L’intelligence artificielle (IA) offre des atouts significatifs pour les entreprises, se traduisant par rapidité, efficacité et automatisation. Une étude réalisée par l’ULiège et l’Université de Hasselt, impliquant 400 professionnels du recrutement, montre que 75 % des recruteurs utilisent l’IA, surtout lors de la phase préparatoire : « Nous avons constaté que l’IA est majoritairement utilisée pour la rédaction d’offres d’emploi ou comme support à la prise de notes lors des entretiens. Plus nous nous rapprochons de la décision d’embauche, plus l’humain est réintroduit« , explique Simon Wuidar, docteur en Sciences politiques et Sociales à l’ULiège.

L’emploi de l’IA est souvent associé à la promesse d’un processus moins sujet aux biais humains. Véronique De Baets, porte-parole de l’Institut pour l’égalité des hommes et des femmes, admet que « l’IA a un impact positif sur l’objectivité du processus de sélection car elle standardise les processus et réduit en partie la subjectivité des recruteurs. Cependant, cela ne signifie pas qu’elle soit neutre« .

Simon Wuidar, coauteur de l’étude « Recrutement et sélection à l’ère de l’IA », abonde dans ce sens, soulignant l’existence de « biais présents dans les technologies utilisées« , notamment dans les bases de données sur lesquelles reposent ces outils pour générer des résultats. Il ajoute que des biais peuvent émerger selon l’utilisation faite par les recruteurs de ces outils. »

Le biais de genre sous-estimé

Dans son étude, l’Institut pour l’égalité des femmes et des hommes interroge des professionnels du recrutement dans les entreprises concernant les biais potentiels lors de l’utilisation de l’IA dans le recrutement.

Dans la phase préparatoire du recrutement (telle que la collecte des besoins ou la rédaction de l’offre), le principal risque évoqué concerne les biais liés aux réseaux sociaux, qui peut se traduire par des suggestions automatiques de profils.

Le risque de biais de genre arrive en seconde position. L’Institut pour l’égalité des femmes et des hommes souligne que le biais de genre et la discrimination ne sont que rarement mentionnés spontanément.

Loading…le développement des systèmes IA évolue rapidement, rendant difficile pour les employeurs de bénéficier d’une formation adéquate.

Victime de discrimination : que faire ?

En février 2025, les premières mesures du règlement européen sur l’intelligence artificielle (IA ACT) seront appliquées. Ce règlement, inédit à l’échelle mondiale, régule l’utilisation et le développement de l’IA, en garantissant l’innovation tout en préservant les libertés fondamentales.

Dans ce cadre, les procédures de sélection impliquant l’IA sont classées comme une utilisation à haut risque. Le règlement stipule que cette utilisation doit être encadrée par des mesures de transparence et de contrôle pour éviter la répétition de biais. Or, « seulement 21 % des employeurs que nous avons consultés ont effectivement mis en place des mesures d’encadrement de l’IA« , souligne Véronique De Baets.

Cette législation sera intégrée dans le droit belge, complétée par trois lois fédérales : la loi anti-racisme, la loi anti-discrimination, et la loi sur le genre. « Ces lois de lutte contre les discriminations sont suffisantes. Lorsque qu’un système d’IA génère une discrimination, elles s’appliquent« , ajoute Sophie Vincent, ancienne juriste chez Unia, le Centre interfédéral pour l’égalité des chances et la lutte contre le racisme et les discriminations.

Bien que le cadre légal paraisse adéquat, le défi residera dans la détection de la discrimination.

Il y a cependant des indicateurs qui peuvent éveiller les soupçons : « On peut se questionner sur l’utilisation de l’IA si l’on reçoit un refus de candidature immédiatement après avoir postulé via une plateforme. Cela signifie qu’il y a probablement un système qui analyse votre CV.Si cette réponse survient en dehors des heures de bureau, cela indique qu’il n’y a pas eu de contrôle humain. » conseille Sophie Vincent.

« Si l’on peut prouver concrètement qu’un système d’IA a discriminé certains candidats, il est alors possible d’engager des poursuites contre l’employeur pour discrimination. » ajoute la juriste.

« La personne qui utilise l’IA sera visée par une plainte car elle a des obligations à respecter« , poursuit Sophie Vincent, précisant qu’elle doit analyser si l’utilisation de l’IA présente des risques pour les droits fondamentaux et peut entraîner des discriminations.

IA et emploi : interview de Sophie Vincent, juriste chez Unia

Pour voir ce contenu, connectez-vous gratuitement

Actuellement, Unia ne dispose pas encore de dossier de discrimination liée à l’usage de l’IA dans le secteur de l’emploi « car les individus ne réalisent pas la mesure dans laquelle cet usage est répandu auprès des employeurs. On commence à recevoir des signalements, mais ceux-ci proviennent plutôt du domaine de l’octroi de crédits ou de leasing« , précise Sophie Vincent, ancienne juriste chez Unia.

La spécialiste ajoute que les instruments actuels ne sont pas encore parfaitement adaptés pour traiter ce type de signalements. Le Centre interfédéral pour l’égalité des chances et la lutte contre le racisme et les discriminations adapte actuellement sa méthodologie pour mieux répondre à de tels signalements.

Comité d’éthique dans les entreprises et formation des recruteurs

Suite à son étude, l’Institut pour l’égalité des femmes et des hommes formule plusieurs recommandations. L’organisme propose l’établissement d’un comité d’éthique dans les entreprises pour suivre les progrès technologiques et éthiques liés à l’utilisation de l’IA. Ce comité serait constitué de membres des ressources humaines et de représentants des travailleurs.

« Parmi nos recommandations, il y a également l’idée que les entreprises qui conçoivent des systèmes d’IA doivent bénéficier d’une formation et d’une information sur les risques de biais sexiste et de genre« , indique Véronique De Baets.

Simon Wuidar conclut en soulignant la nécessité de former « les recruteurs afin qu’ils soient conscients des risques » et appelle à la responsabilité des entreprises : « Cela nécessite la rédaction d’une politique d’utilisation de l’IA en interne, stipulant par exemple que chaque requête faite à l’IA doit inclure la mention de ne pas produire de discrimination entre les hommes et les femmes« .