L’efficacité de l’intelligence artificielle (IA) repose principalement sur la quantité et qualité des données saisies d’une part et sur la modélisation d’autre part. Si elle a pour objectif d’aider les recruteurs à dépasser leurs propres préjugés et à sélectionner les candidats les plus méritants, une mauvaise application des conditions citées peut engendrer l’effet inverse.
Comment ? Dans le cas où les données saisies sont insuffisantes, ou ne reflètent pas le réel objectif, le résultat peut être différent que celui espéré par l’entreprise. En d’autres termes, si l’algorithme est modélisé sur une structure déjà inégalitaire, où les jeunes ou les femmes ne sont par exemples pas assez bien représentés, les résultats vont tout simplement s’inscrire dans la continuité dans ce qui lui a déjà été transmis. L’entreprise est appelée lors de la création de l’algorithme à aller au-delà des données préexistantes et à être méticuleuse dans l’orientation de la machine.
L’exemple le plus marquant a provoqué un réel séisme au sein de Amazon. L’algorithme s’est basé sur des données préexistantes : les hommes représentaient la majorité des collaborateurs de la multinationale les dix années précédant la mise en place de l’intelligence artificielle. Puisque l’algorithme a été entrainé sur ces mêmes collaborateurs, il a automatiquement exclu une grande partie de femmes du processus de recrutement. Amazon ne s’est rendu compte de l’existence de la faille qu’une année plus tard, ce qui lui a probablement coûté un grand manque à gagner dans son capital humain et a porté un gros revers à sa réputation.