Article publié dans l'édition Été 2021 de Gestion

Les questions éthiques que soulève l’utilisation de la technologie et de l’intelligence artificielle (IA) dans les organisations sont de plus en plus complexes, surtout lorsque certaines décisions touchant les employés en font l’objet. Quels sont les pièges à éviter?

Selon le juge à la Cour suprême des États-Unis Potter Stewart (1915-1985), «l’éthique, c’est le fait de connaître la différence entre ce qu’on a le droit de faire et ce qu’il est juste de faire1». Déterminer ce qu’une organisation a le droit de faire va de soi grâce aux lois et aux cadres réglementaires; toutefois, ce qu’il est juste de faire est plus délicat à définir. Dans le domaine de la technologie, ces deux frontières sont encore plus floues, car il existe une infinité d’utilisations possibles qui respectent le cadre juridique mais qui, parfois, ne respectent pas le système de valeurs dominant.

L’utilisation de l’IA en milieu de travail vise à optimiser les processus et à soutenir la prise de décisions. Il est alors important d’observer non seulement la manière dont on tire profit des apprentissages qui en découlent mais aussi les décisions potentielles qui en résultent. Trois pièges peuvent notamment poser des problèmes considérables en matière d’éthique.

1. Le piège de l’exclusion

Un des risques les plus sérieux (et les plus médiatisés) inhérents à l’utilisation de l’IA en milieu de travail est l’exclusion. Les algorithmes sur lesquels repose l’IA peuvent comporter des biais considérables et mener à la surestimation de l’importance de certaines données, ce qui peut occasionner des décisions erronées.

L’exclusion en fonction du genre et de l’origine ethnique est un exemple parmi d’autres de ce phénomène. Comme l’ont souligné deux chercheurs dans une étude menée en Europe et en Afrique2, le taux d’erreur de certains logiciels d’analyse vidéo atteindrait 35 % pour les femmes à la peau foncée, contre 1 % pour les hommes blancs. En plus des problèmes d’ordre éthique, le piège de l’exclusion peut entraîner l’élimination de plusieurs candidatures de valeur, la non-reconnaissance de la contribution de certains employés et l’apparition d’un sentiment d’injustice au sein des organisations. Pour prévenir de telles situations, la responsabilité des entreprises consiste entre autres à s’assurer que les algorithmes soient alimentés par des données inclusives et représentatives3.

J'achète!

Poursuivre votre lecture pour seulement 2,99 $

Je m'abonne!

Accédez à tous les articles en vous abonnant à partir de 3,25$

Ou