Amazon a abandonné une IA de recrutement sexiste

Le par  |  36 commentaire(s)
ordinateur-femme

Nouvelle démonstration que la qualité du jeu des données est primordial en matière d'apprentissage automatique. Une IA de recrutement testée par Amazon a viré au sexisme en se montrant discriminatoire pour les femmes.

À Motherboard, un porte-parole d'Amazon a confirmé l'existence d'un algorithme d'intelligence artificielle pour le recrutement de collaborateurs. Il n'a toutefois été utilisé que dans le cadre d'une phase d'essais et développement, et jamais en totale autonomie.

Cette confirmation fait suite à une information de Reuters au sujet d'un système automatisé de recrutement qu'Amazon a commencé à développer en 2014. Il a tourné court après la découverte d'un biais en 2015 et a été complètement abandonné l'année dernière.

AlexaSelon des sources proches du dossier interrogées par Reuters, ce fameux biais était une discrimination à l'encontre des femmes pour des postes de développeurs ou techniques.

En épluchant les CV de candidats, l'intelligence artificielle faisait ressortir des candidats masculins, notamment en pénalisant les candidatures faisant mention du mot " femme " ou d'un adjectif en rapport. À titre d'exemple, " capitaine de club d'échecs féminin. "

Ce biais s'explique par l'entraînement du système d'IA avec dix années de CV reçus par Amazon émanant majoritairement d'hommes pour ce qui concerne le domaine technique. Il y a eu un travail pour corriger le biais et rendre l'IA moins sexiste, mais manifestement d'autres soucis ont conduit à l'abandon du projet.

La reproduction des biais et discriminations avec des algorithmes d'apprentissage automatique est un problème connu et à prendre en compte pour tendre vers une amélioration.

Sur le cas de la mixité et la diversité dans le numérique, le rapport en France de la mission Villani sur l'intelligence artificielle écrit :

" En dépit d'une féminisation lente, mais progressive des filières scientifiques et techniques, le numérique fait figure d'exception : la parité entre les hommes et les femmes est loin d'y être acquise. […] Ce manque de diversité peut conduire les algorithmes à reproduire des biais cognitifs - souvent inconscients - dans la conception des programmes, l'analyse des données et l'interprétation des résultats. L'un des grands défis de l'IA consiste donc à parvenir à une meilleure représentativité de nos sociétés. "

Complément d'information

Vos commentaires Page 1 / 4

Gagnez chaque mois un abonnement Premium avec GNT : Inscrivez-vous !
Trier par : date / pertinence
Le #2036304
On crée des IA pour mimer notre comportement, ce qu'elle fait relativement bien, c'est la faille du truc.
Le #2036305
Outre le fait que l'IA tourne au sexisme (cela rappellera l'IA Norman, qui avait tourné au racism), je suis encore choqué qu'une entreprise telle que amazon n'anonymise pas les CV, ne laisser que les informations pro et scolaire (à la limite des hobbies).
Le #2036306
LinuxUser a écrit :

On crée des IA pour mimer notre comportement, ce qu'elle fait relativement bien, c'est la faille du truc.


Effectivement, en faisant ça, on risque plus d'obtenir une CA...
Le #2036309
Ou c'est logique non ?
Mais ça dérange.
Le #2036310
Rymix a écrit :

Ou c'est logique non ?
Mais ça dérange.


Non ça na rien de logique.

Si t'as 20 minutes à tuer : https://youtu.be/ALAuI5JLsYs
Le #2036313
"ce fameux biais était une discrimination à l'encontre des femmes pour des postes de développeurs ou techniques."

L'IA a juste fait son boulot, comme dit LU, à savoir qu'elle a lu des centaines voire des milliers de CV pour ce type de poste, et c'était en écrasante majorité des hommes.

4% de filles dans nos effectifs, avec 93% de chances de trouver du boulot à la sortie, et malgré une sélection les favorisant.

Assumez mesdames, halte au faux sexisme.
Le #2036314
jujubibi a écrit :

Rymix a écrit :

Ou c'est logique non ?
Mais ça dérange.


Non ça na rien de logique.

Si t'as 20 minutes à tuer : https://youtu.be/ALAuI5JLsYs


Oui mais rien à voir avec les choix qui sont fait ultérieurement....

Je le sais, je suis en plein dedans, je sélectionne, et je vois ce qui se passe ....
Le #2036316
jujubibi a écrit :

Rymix a écrit :

Ou c'est logique non ?
Mais ça dérange.


Non ça na rien de logique.

Si t'as 20 minutes à tuer : https://youtu.be/ALAuI5JLsYs


Si c'est logique. Prenons un simple facteur. Une IA cherchera à optimiser quoi qu'il arrive.
Imaginons donc un nombre de jour travailler Ok ?
Alors les femmes sont sujette à être enceinte par exemple.
L'IA peut donc choisir un homme plutot qu'une femme sur un critère comme celui là.
Le problème de l'IA c'est qu'elle est trop parfaite ET/OU colle trop à une réalité actuelle.

Si tu n'as jamais fait d'IA c'est normal de ne pas savoir.
Mais le jour ou l'IA prendra des décisions ou commercera à ta place, tu comprendras vite que l'IA à raison.

" Il y a eu un travail pour corriger le biais et rendre l'IA moins sexiste", ça veut dire donner plus de CV féminin ou alors modifier le comportement (Alors qu'on est pas censer faire ça).
Le #2036317
skynet a écrit :

"ce fameux biais était une discrimination à l'encontre des femmes pour des postes de développeurs ou techniques."

L'IA a juste fait son boulot, comme dit LU, à savoir qu'elle a lu des centaines voire des milliers de CV pour ce type de poste, et c'était en écrasante majorité des hommes.

4% de filles dans nos effectifs, avec 93% de chances de trouver du boulot à la sortie, et malgré une sélection les favorisant.

Assumez mesdames, halte au faux sexisme.


Assez d'accord, mais si tu veux être objectif, t'es obligé de censurer certaines données ; les noms, prénoms, sexe comme dit iinconnu....
Le #2036319
jujubibi a écrit :

Rymix a écrit :

Ou c'est logique non ?
Mais ça dérange.


Non ça na rien de logique.

Si t'as 20 minutes à tuer : https://youtu.be/ALAuI5JLsYs


Btw j'ai compris que tu crois que j'adhère à l'hypothèses que je pense que les femmes ne sont pas faite pour telle ou telle tache.

Ce dont je parlais c'est que c'est normal que l'IA prennent des comportements qui nous choque ou qui sont mauvais à nos yeux. Pas que le sexisme est une bonne chose.

ça me fait penser à iRobot, quand au début le robot sauve l'homme au lieu de la petite fille.
Statistiquement il a raison de prendre l'homme qui avait plus de chance de suivit. Sans savoir pourquoi il a choisit l'homme et non la fillette, la décision te parait mauvaise (Un peu Deep Mind aussi).

Suivre les commentaires
Poster un commentaire
Anonyme
Anonyme