Alors que l’intelligence artificielle se fait de plus en plus présente et que la transition vers le numérique permet aux organisations de gagner en efficacité, des voix s’élèvent pour appeler à un questionnement éthique sur ces avancées technologiques. Voici un aperçu des principaux enjeux à surveiller dans ce domaine.

Les technologies occupent une place grandissante, tant dans la vie des individus qu’au sein des organisations. Au cours des dernières années, elles ont fait des pas de géant et sont aujourd’hui capables de réaliser des tâches variées et de plus en plus complexes. Certaines d’entre elles, en particulier l’intelligence artificielle (IA), ont progressé à une vitesse stupéfiante et ouvrent des perspectives qu’on peinait à imaginer il y a deux décennies à peine.

Source de progrès, l’introduction massive de ces technologies soulève aussi bon nombre de questions. C’est ici que l’éthique entre en scène...

Utilisation, explicabilité, responsabilité et sens moral

Grâce à l’exploitation des données massives et au recours à l’apprentissage profond (deep learning), l’IA connaît un essor sans précédent. Le secteur de la santé en a largement bénéficié – la radiologie diagnostique, par exemple –, mais ce n’est pas le seul domaine où l’IA permet d’améliorer les pratiques. L’IA est aussi à l’œuvre dans les services professionnels, le commerce de détail et une foule d’autres domaines où l’analyse de données, l’automatisation et l’amélioration de la prise de décision peuvent générer de la valeur.

Pour les organisations, ces avancées technologiques visent l’amélioration des processus, de la performance et, éventuellement, de la rentabilité, d’où le vif intérêt qu’elles leur portent. Or, il y a encore peu d’encadrement réglementaire de l’IA, et même si certaines lois sont proposées, les progrès dans ce domaine sont si rapides que de futures réglementations pourraient devenir rapidement obsolètes.

D’importants enjeux éthiques liés au développement de l’IA ont trait à la gouvernance des données. En effet, les technologies d’intelligence artificielle mobilisant l’apprentissage automatique s’appuient sur une énorme quantité de données pour entraîner leurs algorithmes. Par conséquent, les données sont devenues des ressources précieuses et convoitées par différents acteurs publics et privés. De nombreux enjeux éthiques sont donc liés à la nature même de ces données, à la façon dont elles sont collectées, entreposées, utilisées et partagées. Par exemple, peut-on dire qu’une personne a réellement consenti de façon volontaire et éclairée à l’utilisation et au partage de ses données personnelles parce qu’elle a coché rapidement une case afin d’avoir accès à une application mobile?

D’autres enjeux concernent directement les systèmes d’IA développés ou déployés dans les organisations. On peut se questionner d’emblée sur les objectifs poursuivis par ceux-ci. En effet, tout développement technologique n’est pas nécessairement souhaitable dans tout contexte, et ce n’est pas parce qu’une avancée ouvre de nouvelles portes que nous devrions nécessairement les franchir. Pensons au clonage des embryons humains : nous savons que c’est possible scientifiquement, mais en tant que société, en prenant en compte diverses considérations éthiques, nous avons décidé que ce développement n’était pas souhaitable. C’est un peu la même logique avec certaines applications d’IA qui ne correspondraient pas nécessairement à notre vision du bien commun ou du progrès social.

De plus, même si plusieurs technologies ont été développées en toute intégrité, certaines d’entre elles peuvent présenter un potentiel d’utilisation malveillante ou non éthique. Par exemple, les robots tueurs et la militarisation de l’IA constituent une menace pour la vie humaine. Le double usage des technologies de l’IA dans le domaine de la santé peut également poser problème. Par exemple, dans le contexte de la pandémie de COVID-19, les applications de traçage pour pister les contacts des individus par le biais de la géolocalisation de leur téléphone portable ont fait l’objet de débats dans de nombreux pays, les législateurs se questionnant non seulement sur leurs avantages réels, mais aussi sur les risques de dérives.

Se pose également l’enjeu de l’imputabilité. Par exemple, si une erreur venait à survenir à la suite d’une décision d’un professionnel de la santé soutenue par un système d’IA, notamment sur le choix d’un traitement ou d’un médicament à prescrire, à qui faudrait-il attribuer la responsabilité de cette erreur? Au professionnel de la santé, au système d’IA, aux individus impliqués dans son développement, à l’entreprise qui l’a mis en marché?

Le fait de déléguer l’entière responsabilité décisionnelle et morale à des machines représente un autre enjeu éthique. Sommes-nous prêts à accepter que ces dernières en viennent, dans certains contextes, à remplacer complètement le jugement des individus? De quelle façon les véhicules autonomes prendront-ils des décisions concernant la vie et la mort de piétons, de cyclistes ou de conducteurs d’autres véhicules? Les robots-compagnons seront-ils à même de juger de situations qui ont une dimension éthique? Autant de problématiques qui sont loin d’être résolues.

Autre préoccupation majeure : la confiance envers ces technologies et leur acceptabilité sociale. Ainsi, la confiance envers les technologies d’IA est indispensable à leur acceptation par les différents acteurs dans nos sociétés, qu’ils soient des professionnels, des gestionnaires, des décideurs ou des utilisateurs. Si le public est méfiant ou ne comprend pas le fonctionnement d’une technologie, il pourrait la rejeter, ce qui nuira nécessairement à son utilisation et à son adoption. De plus, pour certaines de ces technologies, notamment celles qui mobilisent l’apprentissage profond, il existe ce qu’on appelle un phénomène de «boîte noire» : il est parfois difficile de comprendre et d’expliquer comment le système est arrivé à une suggestion ou à une décision. Or, ce manque d’explicabilité est problématique, car moins un système est transparent, moins les utilisateurs lui feront confiance et voudront l’adopter. Au bout du compte, les entreprises pourraient avoir investi dans des technologies coûteuses et sophistiquées qu’elles devront mettre au rancart, faute d’acceptabilité sociale.

Par ailleurs, puisque leur apprentissage repose sur des données et des décisions humaines parfois imparfaites, ces systèmes peuvent reproduire et amplifier les biais et les performances au détriment de certains groupes marginalisés. C’est ce qu’on appelle la «discrimination algorithmique».

Dossier Confiance

Perturbation du marché du travail et fracture numérique

Mais, au-delà des enjeux liés à l’utilisation, à l’explicabilité, à la responsabilité ou au sens moral de ces technologies, il y a aussi la perturbation potentielle du marché du travail engendrée par l’intégration de l’IA, l’automatisation et la robotisation. Ces percées pourraient en effet se solder par la disparition ou la transformation de millions d’emplois dans tous les secteurs d’activité. Une véritable révolution qui entraînera la transformation profonde des tâches, des rôles et de l’identité professionnelle, et qui nécessitera une réflexion sur l’évolution du travail.

Qui plus est, l’IA n’est jamais fatiguée : elle peut être à l’œuvre 24 heures sur 24, sept jours sur sept, et elle n’a pas d’attentes en matière de salaire, de conditions de travail ou d’avantages divers. Dans ce contexte, les entreprises peuvent être tentées de remplacer l’humain par la machine, surtout en période de pénurie de main-d’œuvre. Mais, au-delà de cette pénurie, la façon dont ces technologies viendront bouleverser le marché de l’emploi et les moyens que nous utiliserons pour nous adapter à ces transformations soulèvent des questions auxquelles il est encore difficile de répondre.

Le risque de fracture numérique doit aussi être soigneusement soupesé. On sait que l’accès aux technologies d’IA est souvent limité aux personnes et aux organisations issues de pays riches ou de milieux socioéconomiques favorisés. Ces inégalités renforcent les disparités sociales existantes et affectent considérablement la qualité et la représentativité des données disponibles pour créer, développer et déployer des systèmes d’intelligence artificielle qui respectent les principes d’équité, de diversité et d’inclusion qui devraient se trouver au coeur de l’IA responsable.

Mentionnons aussi les impacts environnementaux du développement de l’IA, compte tenu de l’énorme quantité d’énergie utilisée pour former les algorithmes d’apprentissage automatique, ainsi que l’infrastructure nécessaire pour soutenir leur développement et l’entreposage des données. Ces facteurs gonflent la dette énergétique des technologies d’intelligence artificielle.

Une nécessaire réflexion

Alors, comment s’assurer que ces technologies soient utilisées à bon escient et éviter les dérives potentielles? De quelle façon réduire les risques sans compromettre le développement et la croissance des entreprises? Comment renforcer la confiance des citoyens envers l’IA et son utilisation par les entreprises? Dans un tel contexte, l’éthique est devenue un incontournable. Rappelons que celle-ci est une réflexion sur nos préférences, nos choix et nos comportements qui vise le bien commun. Elle doit aussi englober tous les acteurs de la société, n’oublier personne et s’assurer de ne pas créer d’iniquité.

D’ores et déjà, de nombreux acteurs se sont mobilisés pour tenter d’établir des principes directeurs en matière d’éthique des données et d’IA. Mentionnons, le groupe de l’OCDE sur l’IA, le Groupe d’experts de haut niveau de la Commission européenne sur l’IA, la Feuille de route américaine sur l’IA, l’Observatoire international sur les impacts sociétaux de l’IA et des technologies numériques ainsi que l’Institut d’éthique de l’IA de Montréal, pour ne nommer que ceux-là.

En 2018, la Déclaration de Montréal pour un développement responsable de l’IA a aussi énoncé dix grands principes à suivre. L’adhésion à ceux-ci demeure toutefois volontaire. D’ailleurs, à travers le monde, il existe plus de 80 chartes de cet ordre qui visent à encadrer le développement de l’IA responsable. Certaines organisations, comme Accenture ou Microsoft, ont également mis sur pied des cadres normatifs en matière d’éthique de l’IA. Mais le défi consiste à arriver à traduire ces principes de haut niveau en pratiques de gestion concrètes. Pour réussir à intégrer ces principes dans la pratique, il sera essentiel de travailler en interdisciplinarité. Les ingénieurs, les développeurs, de nombreuses catégories de professionnels et les experts en éthique devront œuvrer main dans la main.

Pour les organisations, les besoins en sensibilisation et en formation sont grands. L’éthique est un sérieux enjeu susceptible d’avoir de lourdes répercussions qui peuvent aller jusqu’à compromettre à la fois l’utilisation et l’adoption de ces technologies. Les organisations devraient donc se montrer proactives et éviter d’effectuer une profonde transformation numérique sans se questionner sur les enjeux éthiques que ce changement soulève.

Il leur faudra aussi s’assurer que les technologies envisagées auront effectivement un apport positif et seront une source d’amélioration et non l’inverse. Là encore, l’expertise des spécialistes en éthique aidera à réaliser un bilan des enjeux propres à l’organisation et établira les bonnes pratiques à intégrer ainsi que les précautions à prendre. La vigilance est de mise, car la pression est forte pour adopter l’IA en raison de ses avantages sur le plan de l’efficacité et de la productivité.

Article publié dans l'édition Printemps 2023 de Gestion