L’utilisation croissante de l’intelligence artificielle (IA) dans les opérations quotidiennes des entreprises promet d’augmenter l’efficacité et de réduire les coûts. Cependant, l’affaire Pa Edrissa Manjang, un conducteur d’Uber Eats au Royaume-Uni, révèle les risques de discrimination inhérents à ces technologies. Manjang a été injustement suspendu de la plateforme Uber Eats en raison d’erreurs répétées du système de reconnaissance faciale, soulevant des questions sur l’équité des outils d’IA utilisés dans le milieu professionnel, notamment en ce qui concerne l’intelligence artificielle et la discrimination.
L’IA sur le lieu de travail : un outil à double tranchant
L’IA peut améliorer la productivité et l’objectivité dans les décisions RH, mais elle peut également perpétuer ou même exacerber les discriminations existantes si elle n’est pas correctement supervisée. L’affaire Manjang illustre comment les technologies basées sur l’IA, telles que les systèmes de reconnaissance faciale, peuvent présenter des biais raciaux, particulièrement lorsque les algorithmes ne sont pas suffisamment formés avec des données diversifiées.
Le coût humain de l’IA
Les erreurs de reconnaissance faciale chez Uber Eats ont non seulement affecté la carrière de Manjang, mais ont également mis en lumière le manque de mécanismes de recours efficaces pour les collaborateurs affectés par les décisions automatisées. Cela met en évidence la nécessité pour les entreprises de mettre en place des protocoles clairs pour la gestion des erreurs et des appels dans l’utilisation de l’IA.
Principes d’intégration de l’IA dans les RH
Transparence et équité
Il est impératif que les entreprises développent et utilisent l’IA de manière transparente. Les collaborateurs doivent être informés des critères utilisés par ces systèmes et de la manière dont ces critères les affectent. De plus, les organisations doivent s’assurer que l’IA est constamment surveillée et ajustée pour éviter les discriminations.
Prévenir la discrimination par l’IA
Les entreprises doivent reconnaître les risques de discrimination inhérents à l’IA et travailler proactivement pour les éliminer. Cela implique d’analyser et de modifier les jeux de données pour l’entraînement des algorithmes afin d’assurer leur diversité et leur représentativité.
Droit à la révision humaine
Les décisions importantes concernant la carrière des collaborateurs ne doivent jamais être laissées uniquement à l’IA. Les entreprises doivent garantir que des mécanismes sont mis en place pour permettre une révision humaine des décisions automatisées, en particulier celles ayant des implications significatives pour les collaborateurs.
Le cas d’Uber Eats sert de rappel puissant que l’IA, tout en offrant des avantages substantiels, porte également en elle des risques de discrimination et d’injustice. Il est crucial que les professionnels des RH prennent la tête dans la mise en œuvre responsable de ces technologies, en veillant à ce qu’elles améliorent plutôt qu’elles ne nuisent au lieu de travail. Les organisations doivent aborder l’IA non seulement comme un outil de rationalisation, mais aussi comme une opportunité pour renforcer l’équité et la transparence sur le lieu de travail.
Pour les professionnels des RH, il est temps de repenser les modèles d’IA non comme des solutions prêtes à l’emploi, mais comme des outils évolutifs qui nécessitent un engagement continu en matière de surveillance, de révision et d’amélioration. La route vers une IA éthique est semée d’embûches, mais avec une vigilance et une planification appropriées, les entreprises peuvent naviguer vers un avenir où la technologie travaille pour tous.