L’intelligence artificielle, surtout générative, est sur toutes les lèvres. Dans votre organisation, faites-vous ce qu’il faut pour bien suivre son évolution et profiter de ses avantages tout en gardant la tête froide?

«La structure organisationnelle traditionnelle a vu le jour en 1855 avec le premier organigramme moderne, et a prospéré, avec plus ou moins de succès, jusqu’aux années 2020, lorsqu’elle a succombé à une nouvelle technologie : les grands modèles de langage (large language model ou LLM)», a récemment écrit Ethan Mollick, professeur associé à la Wharton School de l’Université de Pennsylvanie, dans la MIT Sloan Management Review.

Ethan Mollick le reconnaît lui-même, cet éloge funèbre anticipé de la structure organisationnelle traditionnelle s’avère un peu audacieux. Mais les superlatifs pullulent dans le monde de l’intelligence artificielle (IA), et encore plus lorsqu’il est question d’IA générative, comme avec le robot conversationnel ChatGPT.

Comment – et quand – l’IA risque-t-elle de transformer votre entreprise? Quelles sont les prochaines avancées à surveiller? Quels sont les bénéfices réels pour vos employés? Comment faut-il gérer les risques associés à ces technologies? Les trois pratiques présentées ci-après pourraient vous aider à répondre à ces questions.

1 - Mettre en place un système de veille efficace

«Assurer une veille sur l’intelligence artificielle ressemble en certains points à ce que font déjà de nombreuses entreprises pour surveiller les évolutions technologiques : suivre les tendances, cibler les signaux faibles du marché, assister à des conférences et des salons, etc.», explique Gregory Vial, professeur agrégé au Département de technologies de l’information de HEC Montréal.

Si les organisations veulent bien suivre l’évolution de l’IA, celles-ci doivent d’abord savoir que les mécanismes de suivi actuels ne sont toutefois probablement pas suffisants, estime-t-il. «C’est un marché dont l’évolution est extrêmement rapide. Les temps de réaction ne sont pas les mêmes que pour les technologies plus traditionnelles», précise le professeur, qui préconise donc une veille continue.

«Pour les plus grandes entreprises, il y a aussi l’aspect scientifique à considérer, puisque la recherche alimente l’innovation dans le domaine de l’IA. Les entreprises qui sont à l’affût des nouveautés scientifiques sont généralement plus enclines à anticiper ce qui pourrait advenir par la suite, et à connaître les technologies émergentes avant même que les produits ou les outils n’atteignent le marché», ajoute-t-il.

Cette veille risque aussi d’être plus décentralisée que par le passé. «Une petite équipe de veille stratégique ne suffit pas; il faut un écosystème dans lequel tout le monde dans l’organisation sera appelé à participer», note pour sa part Vincent Bérubé, associé sénior chez McKinsey à Montréal.

Cette décentralisation est évidemment encore plus importante en ce qui concerne les outils d’IA générative et les robots conversationnels. L’IA générative est en effet accessible à tous. Elle permet d’effectuer des tâches variées dans le travail quotidien, comme classifier des documents, réviser du texte, résumer de l’information, répondre à des questions et rédiger des premiers jets.

Une partie de cette veille peut donc se faire en expérimentant les technologies directement au sein des équipes. «L’IA générative n’a pas une fonction unique. Quelqu’un pourrait explorer différentes façons d’utiliser ces outils pour un poste précis, puis partager cette information avec les autres employés», explique Laurent Charlin, professeur agrégé au Département de sciences de la décision de HEC Montréal.

«Les groupes d’innovation et les conseillers stratégiques à l’intérieur des organisations peuvent dicter des politiques, mais seules les équipes de travail peuvent savoir comment profiter concrètement de l’IA générative», note aussi Ethan Mollick, dans son article. Laurent Charlin constate, comme plusieurs, que la technologie évolue constamment. «Il est donc crucial que cette veille soit exercée de façon continue», estime-t-il.

2 - Miser sur la littératie numérique  

Pour certains, une veille au sens classique du terme pourrait aussi ne pas être suffisante pour faire face aux transformations amenées par l’IA générative. «C’est tout un changement de paradigme qu’on observe en ce moment entre les machines et les humains. Le potentiel est grand, et les transformations risquent de s’accélérer encore», signale Vincent Bérubé.

«Un cadre qui cumule 30 ou 40 ans d’expérience devra développer de nouvelles compétences, car ce qui l’a rendu performant dans le passé pourrait ne pas suffire dans l’avenir», poursuit-il. Selon lui, l’importance de l’intelligence artificielle est telle qu’il est primordial pour les entreprises de miser sur la littératie numérique, en commençant par la formation continue des dirigeants qui seront appelés à mener leurs équipes vers la réussite et à transmettre la vision «numérique» de leur organisation.

«Les universités offrent de plus en plus de cours et de programmes portant sur ces nouveaux systèmes d’intelligence artificielle. Les gens n’y apprendront pas comment les développer, mais ils seront outillés pour mieux distinguer ce qui est utile de ce qui l’est moins», indique Laurent Charlin.

Les cadres ne sont évidemment pas les seules personnes qui peuvent tirer parti d’une formation dans ce domaine. «Les employés qui travaillent à collecter et à analyser des données peuvent eux aussi en profiter», assure-t-il.

La littératie numérique doit donc se propager à travers toute l’organisation. «Si on a une vision stratégique et une bonne littératie numérique, ça va d’ailleurs mener naturellement à une veille technologique», évalue Vincent Bérubé. Les employés formés et informés seront plus à même de suivre eux-mêmes l’évolution technologique et d’en évaluer les répercussions sur leur travail au quotidien.

3 - Bien encadrer l’usage de l’IA générative

Quand vient le temps d’adopter certaines technologies, l’IA générative est classée dans une case à part. Alors que les employés d’une organisation ne peuvent déployer par eux-mêmes des technologies complexes, comme des outils de reconnaissance d’image pour améliorer l’assurance qualité d’une chaîne de production, ils sont en mesure de décider d’utiliser ChatGPT pour rédiger un rapport. Puisque l’IA générative est facilement accessible, plusieurs travailleurs l’utilisent même sans l’accord de leur employeur.

Dans un sondage réalisé pour l’éditeur de logiciels Salesforce auprès de 14 000 travailleurs dans le monde en 2023, 28% des répondants ont d’ailleurs affirmé utiliser des outils d’IA au travail. La moitié d’entre eux (55%) le faisaient sans la permission de leurs supérieurs.

«Bloquer l’accès aux outils comme ChatGPT ne fonctionne pas à long terme, car il existe une foule de moyens différents d’y accéder», selon Gregory Vial. L’employé qui veut utiliser un robot conversationnel comme ChatGPT, Gemini, Meta AI ou Claude pourra le faire, peu importe les mécanismes instaurés pour en restreindre l’accès.

La meilleure option consiste plutôt à encadrer l’usage de l’IA générative. «Il faut former les employés sur l’utilisation correcte de ces outils, en leur enseignant les meilleures pratiques et en les sensibilisant aux limites et aux risques encourus», croit le professeur.

«On peut les former entre autres sur l’ingénierie de requête, pour que les employés apprennent le type de questions à poser, dans quel ordre le faire et quelles informations additionnelles fournir pour tirer profit au maximum de l’IA générative», illustre Vincent Bérubé. L’entreprise et ses employés doivent aussi déterminer quelles sont les tâches où l’IA est réellement susceptible d’améliorer les processus internes.

«Avec les outils gratuits, notamment, il existe un danger assez évident par rapport aux fuites d’information et à la confidentialité des données», prévient Vincent Bérubé. Tout ce qui est transmis à la version gratuite de ChatGPT, par exemple, peut être utilisé par OpenAI, l’entreprise derrière l’outil, dans le but de bonifier les prochaines versions de son robot conversationnel.

Ici, trois gestes s’imposent : éviter de partager des renseignements confidentiels, acquérir des licences payantes pour les utilisateurs (lesquelles protègent généralement les données) et, idéalement, mettre en place un robot conversationnel dans l’entreprise même, une pratique qui offre aussi l’avantage de permettre la surveillance des requêtes qui y sont soumises.

Autre risque à considérer : la qualité du contenu produit n’est pas toujours au rendez-vous, car les outils d’IA tendent à générer des interprétations douteuses et parfois même des faussetés. «C’est pour cela qu’il faut toujours vérifier les réponses qu’on obtient», conseille Gregory Vial. Laurent Charlin est cependant d’avis que cela est plus facile à dire qu’à faire. «Vérifier un paragraphe, ça passe, mais lorsqu’on doit vérifier des pages et des pages de texte, ça devient plus difficile.»

Ce n’est pas pour autant une raison de baisser les bras et d’éviter d’explorer cette technologie. «C’est un peu comme l’encyclopédie en ligne Wikipédia. Au début, nous avions peur de l’utiliser, mais nous avons appris à nous en servir d’une manière responsable, relativise Laurent Charlin. Les outils d’IA présentent assurément des risques et des limitations, mais nous pourrons nous y adapter.»

Article publié dans l’édition Hiver 2025 de Gestion