Le lancement de ChatGPT par OpenAI en novembre 2022 a eu l’effet d’une bombe. Son efficacité, les promesses de développement futur ainsi que l’arrivée d’autres outils similaires obligent les entreprises à se positionner quant à leur utilisation de l’intelligence artificielle (IA).

Pour l’instant, les entreprises, tout comme les gouvernements et les populations, sont en mode réactif, mais personne n’est prêt à gérer l’impact de ces nouvelles technologies», soutient Laurent Charlin, professeur agrégé au Département de sciences de la décision de HEC Montréal. La grande nouveauté avec les outils d'intelligence artificielle générative comme les agents conversationnels ChatGPT, Bard et Bing Chat est qu’ils amènent l’automatisation dans des secteurs où celle-ci est peu présente. Dans un texte publié en décembre 2022, trois experts de McKinsey rappelaient que la production et les transactions ont été largement automatisées, alors que les interactions entre humains ont échappé à cette vague. C’est le cas, par exemple, du service à la clientèle, de l’éducation, des services professionnels et de l’ensemble des «professions du savoir», qui pourraient tous être bouleversés par l’IA.

Déjà, ces nouveaux outils arrivent à réaliser certaines tâches comme générer du contenu pour les médias sociaux, écrire et réviser des lignes de code informatique, rédiger des rapports annuels ou puiser dans une grande quantité d’informations afin de répondre à des questions légales complexes.

Avancer prudement

Cela signifie-t-il pour autant que les entreprises auront bientôt intérêt à remplacer leurs employés par ces outils? Pas nécessairement. L'IA générative montre de sérieuses limites, notamment sur le plan de la fiabilité et de la précision. «Les modèles peuvent engendrer des réponses erronées, pourtant bien structurées, qui peuvent tromper quelqu’un qui ne connaît pas profondément un sujet», souligne Gaétan Marceau Caron, directeur de l’Institut québécois d’intelligence artificielle (Mila).

On a donc avantage à toujours maintenir un garde-fou humain dans le but de prévenir les dérapages. De plus, les réponses des agents conversationnels peuvent se raffiner ou même changer grâce à des relances précises de la part d’une personne. À l’heure actuelle, le couple humain/machine semble plus prometteur pour ce qui concerne l’augmentation de la productivité et l’efficacité. C’est d’autant plus vrai que, si une décision ou une action découlant de l’utilisation d’outils comme ChatGPT engendrait des dommages physiques ou psychologiques, c’est l’organisation ou le professionnel qui risquerait d’en être tenu responsable juridiquement. Sur les plans éthique et juridique, la montée de ces outils posera d’ailleurs de plus en plus cette question du partage des responsabilités.

En matière d’éthique, on établit une distinction entre les patients moraux et les agents moraux. Les premiers sont des entités auxquelles on peut faire du mal et du tort, comme les humains et les animaux. Les seconds sont des entités qui ont des obligations envers les patients moraux et peuvent leur causer du tort. Les humains adultes sont à la fois des patients moraux, puisqu’on peut leur faire du mal, et des agents moraux, puisqu’ils sont responsables de leurs actes qui peuvent causer du tort à des patients moraux.

«Est-ce que ChatGPT est un agent moral? demande Martin Gibert, chercheur en éthique de l’IA à l’Université de Montréal. Ce n’est pas clair. Il n’est pas responsable de ce qu’il fait, mais il a le potentiel de respecter certaines obligations envers les patients moraux ou, au contraire, de leur faire du mal ou de leur causer du tort.»

Déceler les failles de sécurité

Les organisations qui emploient ces outils doivent donc bien comprendre les risques qu’ils comportent. En plus du danger de réponses fausses ou imprécises évoqué précédemment, les modèles peuvent aussi souffrir de biais. «Les données utilisées pour les alimenter peuvent être partielles, imparfaites, surreprésentées ou sous-représentées, explique Gaétan Marceau Caron. Cela peut provoquer des biais dans les réponses. Donc, nous devons demeurer très prudents avant de prendre des décisions basées sur ces informations.» 

Par ailleurs, les usagers de ChatGPT et d’autres innovations du même acabit doivent fournir un certain nombre de renseignements personnels au moment de leur inscription. Puis, en formulant leurs questions au modèle, ils transmettent une abondance d’informations, certaines parfois sensibles. «Ces données se retrouvent sur les serveurs des entreprises qui les opèrent, dont les politiques de sécurité et de confidentialité ne sont pas toujours claires», signale le directeur de Mila.

Or, au Québec, l’adoption de la Loi 25 a rehaussé les exigences de protection des renseignements personnels que les entreprises doivent respecter. Il n’est pas sûr qu’OpenAI, Microsoft et Google soient tenues de s’y conformer, mais une entreprise québécoise qui se sert de leurs outils d’IA doit se montrer très vigilante lorsqu’elle leur transmet les données de ses clients ou de ses employés.

L’Italie a d’ailleurs carrément banni ChatGPT en mars 2023, parce que ce dernier ne protégeait pas assez bien les données des utilisateurs et n’encadrait pas adéquatement son emploi par les personnes mineures. Le pays l’a réintégré après qu’OpenAI a apporté des changements, comme une nouvelle vérification de l’âge et un formulaire de suppression des données pour les utilisateurs de l’Union européenne.

La même prudence s’impose quant au partage d’informations critiques ou stratégiques concernant l’entreprise elle-même. En avril dernier, la version sud-coréenne de The Economist révélait que des employés de la division de semi-conducteurs de Samsung ont accidentellement fourni à ChatGPT, à plus d’une reprise, des renseignements confidentiels comme le code source d’un nouveau logiciel et des notes tirées de réunions. Ces employés utilisaient ChatGPT pour les aider à accomplir certaines tâches.

Marcher avant de courir

De son côté, Laurent Charlin met les gestionnaires en garde contre le risque de dépendance envers les entreprises, peu nombreuses, qui contrôlent ces innovations et qui ont d’abord et avant tout à cœur leurs propres intérêts. «Ce ne sont pas des outils ouverts, et il n’est pas possible de les étudier pour mieux en comprendre le fonctionnement, note-t-il. C’est donc très difficile de déterminer quelles en sont leurs limites. Or, ce n’est pas parce qu’un modèle arrive à bien exécuter une tâche qu’il peut forcément en réussir une autre qui, d’après vous, ressemble à la première.»

Le risque de surestimer les capacités de ces outils est ainsi bien réel, tout comme celui de les imposer trop rapidement à ses équipes. Les bénéfices recherchés pourraient suivre une courbe en J plutôt que de connaître une ascension immédiate. «Lorsqu’une si grande innovation est introduite, il faut un certain temps aux gestionnaires et aux travailleurs pour se l’approprier et apprendre comment mettre à profit l’outil en question. Pendant cette période, on peut connaître une certaine baisse de productivité», prévient Gaétan Marceau Caron.

Il suggère d’identifier des «primo-adoptants» dans les équipes. Ils sont faciles à repérer : ils utilisent le tout nouveau modèle de téléphone intelligent avant tout le monde, roulent en voiture ou en trottinette électrique depuis longtemps et piaffaient d’impatience à l’idée d’essayer ChatGPT avant que le commun des mortels n’en ait même entendu parler. 

Ce sont les personnes idéales pour effectuer des tests et vous communiquer leurs impressions. Par la suite, quand les gestionnaires auront une meilleure idée des capacités de ces outils et de la manière dont ils veulent les utiliser, l’entreprise pourra alors envisager une formation pour un public plus large. Une telle gestion du changement contribuera à réduire les effets négatifs sur la productivité. Le fait de mener ses propres tests, plutôt que de se fier à ce qu’on lit ou à ce qu’on entend dire sur ces modèles, aidera aussi à se montrer plus critique quant à leur potentiel réel pour l’entreprise.

D’autant que les systèmes d’intelligence artificielle, contrairement aux employés, ne sont pas formés pour adhérer à une culture d’entreprise spécifique. Les organisations vivent donc, à petite échelle, les mêmes questionnements que les sociétés, qui voient se développer des outils hyper puissants qui ne répondent pas obligatoirement à leurs codes moraux.

«L’un des grands défis consistera à harmoniser les objectifs des systèmes d’IA avec les valeurs et les normes d’une organisation, estime Martin Gibert. Le dilemme est là. Si on y arrive, ça peut être très bénéfique, mais dans le cas contraire, ça peut devenir catastrophique.»

Article publié dans l’édition Automne 2023 de Gestion