Le bonheur des uns peut être le malheur des autres. Si la récente émergence de l’intelligence artificielle promet une grande accélération de l’automatisation des tâches, ce qui entraînera des économies sur les coûts de main-d’œuvre et augmentera la productivité, et par conséquent sera au goût des entreprises et employeurs, de l’autre bord, la situation est de plus en plus inquiétante pour la soi-disant classe ouvrière, ou encore les collaborateurs, même les mieux positionnés, car cette intelligence artificielle risque de ramener un certain non-besoin de l’humain. Au moins pour l’instant, il y a encore une incertitude autour du potentiel de l’IA générative, mais sa capacité à générer un contenu indiscernable de la production créée par l’homme et à briser les barrières de communication entre les humains et les machines reflète quand même une avancée majeure vers des effets macroéconomiques potentiellement importants. Dans ce sens, une étude prospective a été menée par la banque américaine d’investissement Goldman Sachs intitulée « The Potentially Large Effects of Artificial Intelligence on Economic Growth » (Les effets potentiellement importants de l’intelligence artificielle sur la croissance économique), et dont le rapport souligne que « l’IA pourrait éventuellement augmenter le PIB (produit intérieur brut) mondial annuel de 7 % sur une période de 10 ans ».
Par définition, l’IA générative désigne des algorithmes d’Intelligence Artificielle et de Machine Learning qui utilisent des contenus existants au service de leur apprentissage pour en générer de nouveaux. Il peut s’agir de la génération de textes, de sons, d’images, etc. Ainsi, en se basant sur des modèles stockés dans une base de données, la generative AI est en capacité de produire son propre modèle similaire.
En effet, le marché du travail, si l’IA générative tient bien ses promesses, pourrait être confronté à d’importantes perturbations. « En utilisant des données sur les tâches professionnelles aux États-Unis et en Europe, nous constatons qu’environ les deux tiers des emplois actuels sont exposés à un certain degré d’automatisation de l’lA, et que le mode génératif pourrait remplacer jusqu’à un 25% du travail actuel », souligne le rapport, ajoutant que les estimations actuelles, à l’échelle mondiale, suggèrent que l’lA générative pourrait exposer l’équivalent de 300 millions d’emplois à temps plein à l’automatisation !
Cela dit, rien à craindre ! Tout au long de l’Histoire humaine, l’automatisation de certaines tâches a toujours été synonyme de création d’autres et l’émergence de nouvelles professions suite aux innovations technologiques représente la grande majorité de la croissance de l’emploi à long terme. « La combinaison d’importantes économies sur les coûts de main-d’œuvre, de la création de nouveaux emplois et d’une productivité plus élevée pour les travailleurs non déplacés soulève la possibilité d’un boom de la productivité qui accélère considérablement la croissance économique, bien que le moment d’une telle explosion soit, jusqu’à présent, difficile à prévoir », précise-t-on.
Le secteur administratif particulièrement exposé
Les professionnels du secteur administratif ont vraiment de quoi se soucier. En effet, les emplois dans les secteurs administratifs et juridiques sont particulièrement exposés par l’automatisation de leurs tâches. En effet, les tâches de gestion des ressources humaines, la rédaction de documents techniques, de comptes rendus de réunion, d’écriture d’e-mails professionnels seront gérées par les applications d’IA. D’ailleurs, ChatGPT, qui peut rédiger des essais, a déjà incité de nombreuses entreprises à repenser la façon dont les gens devraient travailler au quotidien. Son développeur a dévoilé, mars courant, la dernière version du logiciel derrière le bot, GPT-4. La plate-forme a rapidement impressionné les premiers utilisateurs par sa capacité à simplifier le codage, à créer rapidement un site Web à partir d’un simple croquis et à réussir des examens avec des notes élevées.
En revanche, les métiers soi-disant physiques, ou qui nécessitent d’être à l’extérieur, comme les emplois dans le secteur de la construction ou de l’entretien sont beaucoup moins exposés, dans la mesure où ils ne peuvent pas être automatisés, souligne le rapport de Goldman Sachs.
Comme toute innovation, les opposants ne manquent pas !
La course puissante et à grande vitesse vers l’intelligence artificielle plaît aux uns, déplaît aux autres. En fait, Elon Musk et un millier d’experts mondiaux ont signé mercredi 29 mars un appel à une pause de six mois dans la recherche sur l’IA, qui pourrait dépasser ChatGPT 4. Dans cette pétition, parue sur le site futureoflife.org, ils réclament un moratoire jusqu’à la mise en place de systèmes de sécurité, dont de nouvelles autorités réglementaires dédiées, la surveillance des systèmes d’IA, des techniques pour aider à distinguer le réel de l’artificiel et des institutions capables de gérer les « perturbations économiques et politiques dramatiques que l’IA provoquera ». Cette pétition réunit des personnalités ayant déjà publiquement exprimé leurs craintes envers des IA incontrôlables qui surpasseraient l’être humain, dont Elon Musk, propriétaire de Twitter et fondateur de SpaceX et de Tesla, et Yuval Noah Harari, l’auteur de Sapiens.
Yoshua Bengio, pionnier canadien de l’IA, également signataire, a exprimé ses préoccupations, lors d’une conférence de presse virtuelle à Montréal. « Je ne pense pas que la société est prête à faire face à cette puissance-là, au potentiel de manipulation par exemple des populations qui pourrait mettre en danger les démocraties », a-t-il précisé, ajoutant qu’ « il faut donc prendre le temps de ralentir cette course commerciale qui est en route », et ce en appelant à discuter de ces enjeux au niveau mondial, « comme nous l’avons fait pour l’énergie et les armes nucléaires ».
En outre, le patron d’OpenAI et concepteur de chatGPT, Sam Altman, a lui-même reconnu être « un petit peu effrayé » par sa création si elle était utilisée pour de « la désinformation à grande échelle ou des cyberattaques ». « La société a besoin de temps pour s’adapter », avait-il déclaré à ABCNews mi-mars. « Ces derniers mois ont vu les laboratoires d’IA s’enfermer dans une course incontrôlée pour développer et déployer des cerveaux numériques toujours plus puissants, que personne – pas même leurs créateurs – ne peut comprendre, prédire ou contrôler de manière fiable », estiment-ils.
« Devons-nous laisser les machines inonder nos canaux d’information de propagande et de mensonges ? Devrions-nous automatiser tous les emplois, y compris ceux qui sont gratifiants ? Devons-nous développer des esprits non humains qui pourraient un jour être plus nombreux, plus intelligents et nous remplacer ? Devons-nous risquer de perdre le contrôle de notre civilisation ? Ces décisions ne doivent pas être déléguées à des leaders technologiques non élus », lit-on sur la pétition.
Selon les signataires de la pétition, les systèmes d’IA puissants ne devraient être développés qu’une fois que nous sommes convaincus que leurs effets seront positifs et que leurs risques seront gérables. Cette confiance doit être bien justifiée et augmenter avec l’ampleur des effets potentiels d’un système. La récente déclaration d’OpenAI concernant l’intelligence artificielle générative indique qu’« à un moment donné, il peut être important d’obtenir un examen indépendant avant de commencer à former de futurs systèmes, et les efforts les plus avancés sont censés accepter de limiter le taux de croissance du calcul utilisé pour créer de nouveaux modèles, ce moment est bel et bien maintenant »
Il convient de noter que parmi les signataires figurent également le cofondateur d’Apple Steve Wozniak, des membres du laboratoire d’IA de Google DeepMind, le patron de Stability AI Emad Mostaque, concurrent d’OpenAI, ainsi que des experts en IA et universitaires américains, ingénieurs cadres de Microsoft, groupe allié de OpenAI.