Qu’elles soient publiques ou privées, et quels que soient leurs champs d’expertise, les organisations recourent de plus en plus à l’intelligence artificielle pour réaliser de manière plus efficace et rapide certaines tâches. Au sein des entreprises, la situation n’est pas très différente et nul ne pourra nier que le marché est en train de vivre une révolution technologique sans précédent. Dans ce sillage, l’IA promet des gains de productivité et d’efficacité, en réalisant à la place de l’humain un certain nombre de tâches en quantité comme en complexité, qui permettent à ce dernier de s’en libérer.
Cependant, et à l’instar de toute évolution ou transition, les inconvénients, ou encore les craintes, ne manquent pas. L’utilisation de l’intelligence artificielle implique automatiquement l’explosion du volume de données produites et exploitées, ce qui ouvre la voie à des utilisations variées de l’intelligence artificielle, y compris des pratiques indécentes. La question de l’éthique et des valeurs morales occupe une place majeure dans les nouveaux débats portant sur l’IA au sein des entreprises et son utilisation responsable s’avère fondamentale afin de créer de la valeur tout en renforçant la confiance des usagers, prévenir les risques réputationnels pour l’organisation, réduire les contentieux juridiques, entre autres.
De manière générale, l’intelligence artificielle fonctionne sur la base d’algorithmes conçus et développés par des humains qui, à leur tour, ne sont pas exempts de biais. De ce fait, si ces données algorithmiques contiennent des biais alors, pratiquement, l’IA les reproduira. Les biais peuvent se produire dans de nombreux aspects de la gestion des RH, y compris l’embauche, la promotion, la formation et la rémunération. Les algorithmes de l’IA peuvent également éliminer certains candidats en raison de leur race, de leur âge, de leur sexe ou d’autres caractéristiques personnelles. Il est donc important de s’assurer que les données utilisées pour former l’IA sont impartiales et que les algorithmes sont conçus pour éliminer les biais.
IA et éthique, un lien à impérativement instaurer
Concrètement, et jusqu’à présent, le niveau de connaissance au sujet de l’intelligence artificielle est relativement faible. Certes l’IA est perçue par les dirigeants comme une réelle opportunité pour gagner en temps et en argent, mais les risques liés à son utilisation ne sont pas encore sérieusement analysés. Autrement dit, la question de l’intégration de l’intelligence artificielle dans le monde de l’entreprise revêt un aspect purement technique et reste pour le moment ‘’monopolisée’’ par les experts techniques et les développeurs.
Par ailleurs, on peut constater que même après prise de conscience risques éthiques associés à l’utilisation de l’intelligence artificielle, ce n’est que rarement que cela se traduit par une mise en place de mesures organisationnelles et techniques, destinées à réduire ces risques. En réalité, la conformité éthique n’est pratiquement jamais un critère de sélections lors de l’acquisition de quelconque solution d’IA. Outre cela, les dispositifs techniques de réduction du risque, s’ils existent, s’avèrent stériles. Cela dit, il est indispensable aujourd’hui d’analyser cette problématique au plus haut niveau de quelconque entreprise, en menant une réflexion sur les valeurs de l’organisation, tout en gardant à l’esprit que l’IA est une arme à double tranchant : une source de valeur et de bénéfice certes, mais un énorme facteur de risque.
Confidentialité des données et transparence
De par sa nature, l’utilisation de l’IA dans les RH nécessite la collecte et l’utilisation de grandes quantités de données personnelles, telles que les données de performance des collaborateurs, les antécédents de travail et les informations sur la santé. Les entreprises doivent être transparentes quant aux données qu’elles collectent et à la manière dont elles les utilisent, et doivent mettre en place des mesures de sécurité appropriées pour protéger ces données contre les atteintes à la vie privée.
En parallèle, et s’agissant des décisions prises par les algorithmes de l’IA, cela peut être compliqué à comprendre pour les humains. Les entreprises doivent être transparentes quant aux critères utilisés par l’IA pour prendre des décisions, telles que la sélection des candidats, les promotions et les augmentations de salaire. Les collaborateurs ont le droit de savoir comment leur entreprise utilise l’IA et comment elle prend des décisions les concernant.
Outre cela, un autre problème peut être engendré par une incorrecte utilisation de l’IA, c’est bien l’iniquité salariale. En déterminant la rémunération des collaborateurs en fonction de critères tels que leur expérience, leurs compétences et leur performance, l’IA peut conduire à des disparités salariales injustes en raison de biais ou de facteurs non pertinents. Les entreprises doivent s’assurer que l’utilisation de l’IA pour la rémunération est équitable et transparente.