L’IA appliquée au processus de recrutement : comment la rendre plus juste et inclusive ?

Le par  |  9 commentaire(s)
intelligence artificielle ia

L’Intelligence artificielle (IA) a aujourd’hui le vent en poupe et devient un levier majeur pour les Directions des Ressources Humaines. Le cabinet Tractica prédit une augmentation moyenne annuelle de 50% jusqu’en 2025 de son utilisation en entreprise. Dans le cadre de la gestion de processus de recrutement en particulier, les algorithmes de matching fleurissent, avec la promesse d’analyser rapidement et objectivement un volume important de candidatures à partir notamment du CV. Qu’en est-il réellement ? Quelles solutions envisager face aux problématiques et enjeux identifiés ?

Tribune libre par Camille Schmitt, consultante au sein de la practice Conseil RH de Magellan Consulting

Remarque : les propos tenus ici n'engagent pas la rédaction de GNT mais constituent un avis éclairé de la part d'un expert dans son domaine que nous avons jugé opportun de vous faire partager. Il ne s'agit pas d'un article promotionnel, aucun lien financier ou autre n'existant entre cette société et GNT, le seul intérêt étant de vous apporter un éclairage intéressant sur un domaine particulier.


Les algorithmes d’IA développés restent imparfaits
Force est de constater que les algorithmes d’IA développés actuellement restent encore imparfaits. On observe un écart entre ce qui est souhaité, ce que l’on pense avoir programmé, et le résultat transmis par l’algorithme. Ce fut le cas d’Amazon : en 2014, l’entreprise lançait son propre algorithme d’IA destiné à faciliter son processus de recrutement. Un an après, les résultats obtenus laissaient perplexe : l’algorithme n’avait retenu que des CV d’hommes.

Pour comprendre, il faut se pencher sur la façon dont fonctionne et est construit un algorithme d’IA : l’algorithme travaille et apprend à partir d’une base de données. Des développeurs l’enrichissent ensuite en le programmant, pour le guider précisément dans son analyse des candidatures. Ce sont bien ces deux éléments qui interrogent aujourd’hui et font de certains algorithmes des solutions biaisées, reproduisant les stéréotypes actuels.

Shéma homme et intelligence artificielle face à face

En effet, les données existantes à ce jour sont majoritairement des données sur les hommes, car on manque de données sur les femmes. L’algorithme prend en référence ces données, en déduit un comportement à suivre, puis l’applique et donc reproduit voire amplifie les biais existants. C’est ce qui s’est passé chez Amazon : les données communiquées à l’algorithme pour des postes techniques ou de développeurs étaient une concaténation de modèles de CV pour ces profils sur les dix dernières années. Ces postes étant majoritairement occupés par des hommes, l’algorithme en a conclu qu’ils correspondaient davantage aux hommes qu’aux femmes, cette IA de recrutement sexiste a d'ailleurs été depuis abandonnée.

Et puis, il y a les développeurs qui œuvrent derrière les algorithmes. Le monde de la programmation, de l’IA et de la tech en général reste encore très masculin : 1/3 des femmes travaillent dans le secteur du numérique et seuls 12% des chercheurs en IA sont des femmes. Les développeurs ne représentent donc pas l’ensemble de la population et sont porteurs de biais conscients ou inconscients, qui se retrouvent ensuite dans leurs codes.

Quelles pistes pour rendre un algorithme d’IA optimal et égalitaire ?
Le choix ou la création d’une bonne base de données est premièrement crucial, puisque l’algorithme apprend à partir des données. Celles-ci doivent être suffisamment complètes et diversifiées pour que des profils atypiques, en reconversion professionnelle par exemple, ne soient pas automatiquement mis de côté.

intelligence artificielle ia

Ensuite, l’équipe qui programme l’algorithme doit être variée (profil, genre, origine…) et ses membres complémentaires. La diversité amène la créativité et permet de se poser les bonnes questions pour s’assurer que l’algorithme est inclusif. C’est ce qu’affirme K. Nilson, co-fondateur de Pivigo, entreprise anglaise de data science : « La créativité a besoin de la diversité et nous devons nous demander : “En faisant cela, est-ce que je fais du tort à quelqu’un” ». Une équipe de développeurs diversifiée va définir les valeurs à intégrer à l’algorithme, et donc le rendre complet, dénué autant que possible de biais. Cela ne se fera cependant pas du jour au lendemain : le secteur de la tech doit parvenir à se féminiser, et, plus généralement, à se diversifier. Des initiatives se multiplient pour encourager les femmes notamment à faire carrière dans la tech, dès le plus jeune âge. Work180, une plateforme de recherche d’emploi mettant en avant les entreprises qui soutiennent et valorisent les carrières féminines, organise par exemple tous les ans, en Australie et en Nouvelle-Zélande, l’événement SuperDaugther Day : créé en partenariat avec des entreprises de la tech, il vise à initier dès le primaire les jeunes filles aux matières scientifiques appliquées à l’entreprise.

Gageons qu’à terme, les algorithmes d’IA seront un outil permettant de s’émanciper des stéréotypes actuels, « d’ouvrir ses chakras », pour recruter des candidats aux parcours différents. Et nul doute qu’après la sortie de la crise sanitaire Covid-19 que nous traversons, nous allons redéfinir complètement le contenu fonctionnel et technique des algorithmes d’IA et les personnes qui vont le coder. C’est le monde d’après à redéfinir.

Vos commentaires

Trier par : date / pertinence
Le #2099674
Rien que dans le titre, le scriptlet RevealBullshit a flaggé 2 mots, c'est dire si le contenu (pas lu, je passe vite) doit être à l'avenant…

Évidemment dans le monde réel (business), ce qu'on demande à un outil de recrutement censé remplacer l'humain est d'être le plus discriminant possible pour trouver le meilleur rapport compétence/coût : les buzzwords marxistes, on s'en balance royalement si on veut réussir.

On se demande qui peut payer de tels cabinets à propager de telles conneries.

#KillTheMarxistBullshit
Le #2099686
En arriver à ce genre d'extrémité pour choisir ses employés prouve que c'est la tête qu'il faut changer d'abord.
Le #2099688
"En effet, les données existantes à ce jour sont majoritairement des données sur les hommes, car on manque de données sur les femmes. L’algorithme prend en référence ces données, en déduit un comportement à suivre, "

Oh purée c'est pas comme ce qu'on fait les humains nous aussi ?
J'imagine que l'IA faisait ton taff dans le domaine du recrutement dans l'IT.

Pourrait-il essayer la même chose dans le care et comparer ?

J'ai fiat aussi du recrutement "inclusif" en donnant plus de chances aux femmes qui postulaient pour des filières ingé info, et malgré cela 5% de femmes à l'arrivée.
Le #2099690
jacob13 a écrit :

En arriver à ce genre d'extrémité pour choisir ses employés prouve que c'est la tête qu'il faut changer d'abord.


Ce faire juger par un robot.
Inadmissible ça devrait être interdit!
Le #2099693
tournesol a écrit :

jacob13 a écrit :

En arriver à ce genre d'extrémité pour choisir ses employés prouve que c'est la tête qu'il faut changer d'abord.


Ce faire juger par un robot.
Inadmissible ça devrait être interdit!


Par un algo créé par des humains...

Tu sais comment étaient fait les recrutements avant ? Une nana matait des photos de CV toute la journée et la plupart finissaient à la poubelle ...
Le #2099698
En école il y a 2 femmes par promo de 80 élèves, anormal qu'on recrute moins de femmes?
Le #2099705
Eildosa a écrit :

En école il y a 2 femmes par promo de 80 élèves, anormal qu'on recrute moins de femmes?


Ce sont elles qui décident de ne pas venir...
Le #2099725
Je vais élaborer sur ce qu'a correctement répondu skynet.

Ce sont dans les pays (scandinaves en particulier) dans lesquels on a poussé le plus loin les politiques égalitaires dans le but d'uniformiser les différences entre sexes qu'on obtient les écarts H/F les plus importants dans les occupations/activités [1].

Ce résultat a été reproduit de nombreuses fois et est un des meilleurs faits établis en sociologie [2]. Autrement dit, au lieu de minimiser les différences, ces politiques ont abouti à l'opposé.

L'explication est simple : contrairement à l'hypothèse, les différences dans les traits, les préférences et les activités H/F sont dues ***en majorité*** à la génétique et non à la culture et/ou aux normes sociales (ou d'autres bouffonneries post-modernes marxisantes).

Résumé : les sexes sont une réalité biologique qui a des conséquences socio-culturo-économiques : les F préfèrent les activités avec les gens alors que les H préfèrent les activités avec les choses (STEM) [3].

[1] https://cdn.theatlantic.com/thumbor/BmBN2cHlvDAOZE5lcYt7cph3Yi0=/filters:format(png)/media/img/posts/2018/02/Screen_Shot_2018_02_16_at_12.33.16_PM/original.png

[2] https://science.sciencemag.org/content/362/6412/eaas9899/tab-pdf
https://fibamdp.files.wordpress.com/2018/03/the-gender-equality-paradox.pdf
http://emilkirkegaard.dk/en/wp-content/uploads/Men-and-things-women-and-people-A-meta-analysis-of-sex-differences-in-interests.pdf
https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0153857
https://journals.sagepub.com/doi/abs/10.1177/0956797617741719?journalCode=pssa
https://twin.sci-hub.tw/7108/9ac6bb052a6e0092264ca5f4c6f7a414/macgiolla2018.pdf

[3] https://www.youtube.com/watch?v=jMoOu0L9Y64

(Il est possible que certains liens ne soient pas accessibles avec certains DNS.)
Le #2099750
tmtisfree a écrit :

Je vais élaborer sur ce qu'a correctement répondu skynet.

Ce sont dans les pays (scandinaves en particulier) dans lesquels on a poussé le plus loin les politiques égalitaires dans le but d'uniformiser les différences entre sexes qu'on obtient les écarts H/F les plus importants dans les occupations/activités [1].

Ce résultat a été reproduit de nombreuses fois et est un des meilleurs faits établis en sociologie [2]. Autrement dit, au lieu de minimiser les différences, ces politiques ont abouti à l'opposé.

L'explication est simple : contrairement à l'hypothèse, les différences dans les traits, les préférences et les activités H/F sont dues ***en majorité*** à la génétique et non à la culture et/ou aux normes sociales (ou d'autres bouffonneries post-modernes marxisantes).

Résumé : les sexes sont une réalité biologique qui a des conséquences socio-culturo-économiques : les F préfèrent les activités avec les gens alors que les H préfèrent les activités avec les choses (STEM) [3].

[1] https://cdn.theatlantic.com/thumbor/BmBN2cHlvDAOZE5lcYt7cph3Yi0=/filters:format(png)/media/img/posts/2018/02/Screen_Shot_2018_02_16_at_12.33.16_PM/original.png

[2] https://science.sciencemag.org/content/362/6412/eaas9899/tab-pdf
https://fibamdp.files.wordpress.com/2018/03/the-gender-equality-paradox.pdf
http://emilkirkegaard.dk/en/wp-content/uploads/Men-and-things-women-and-people-A-meta-analysis-of-sex-differences-in-interests.pdf
https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0153857
https://journals.sagepub.com/doi/abs/10.1177/0956797617741719?journalCode=pssa
https://twin.sci-hub.tw/7108/9ac6bb052a6e0092264ca5f4c6f7a414/macgiolla2018.pdf

[3] https://www.youtube.com/watch?v=jMoOu0L9Y64

(Il est possible que certains liens ne soient pas accessibles avec certains DNS.)


Merci pour les références.
Je n'avais que mon expérience personnelle (enfin partagée avec mes collègues) (1800 ingé info / an)
Suivre les commentaires
Poster un commentaire
Anonyme
Anonyme