Le recours à l’intelligence artificielle prend de plus en plus d’importance dans le monde dans l’entreprise, et soulève de nouvelles problématiques liées à l’éthique. Elle est utilisée généralement pour la lecture et l’interprétation des données personnelles et professionnelles liées aux collaborateurs et aux candidats, et peut même fournir projection du comportement de ces derniers dans le futur.
La limite entre ce qui est éthiquement acceptable dans l’utilisation de l’IA et ce qui ne l’est pas demeure très fine. Prenons l’exemple du recrutement : un jeune à la recherche d’un emploi publie sciemment ses données personnelles sur internet sur les réseaux sociaux : nom, prénom, âge, parcours scolaire, passions, intérêts…, pour espérer attirer l’attention d’un recruteur. Ce dernier a-t-il le droit d’utiliser ces informations pour trouver le bon profil ? Oui, puisque le candidat accepte de facto de les rendre publiques. Le recruteur peut-il pour autant saisir ces mêmes informations dans un logiciel permettant de projeter le parcours du candidat durant les dix prochaines années ? Pas sûr, surtout s’il n’est pas mis au courant de la manière dont vont être exploiter ses informations personnelles.
En France, le législateur essaye de cadrer l’utilisation de l’IA dans l’entreprise. L’article L1221-9 du code du travail précise que « aucune information concernant personnellement un candidat à un emploi ne peut être collectée par un dispositif qui n’a pas été porté préalablement à sa connaissance ». Le doute subsiste tout de même sur l’utilisation du mot préalablement, puisque le recruteur ne contacte le candidat qu’après avoir collecté les données sur lui. C’est le cas de la France, mais aussi des autres pays les plus développés, où le juridique semble ne pas parfaitement maitriser les enjeux liés à l’IA.