Article publié dans l'édition Été 2021 de Gestion

Les questions éthiques que soulève l’utilisation de la technologie et de l’intelligence artificielle (IA) dans les organisations sont de plus en plus complexes, surtout lorsque certaines décisions touchant les employés en font l’objet. Quels sont les pièges à éviter?

Selon le juge à la Cour suprême des États-Unis Potter Stewart (1915-1985), «l’éthique, c’est le fait de connaître la différence entre ce qu’on a le droit de faire et ce qu’il est juste de faire1». Déterminer ce qu’une organisation a le droit de faire va de soi grâce aux lois et aux cadres réglementaires; toutefois, ce qu’il est juste de faire est plus délicat à définir. Dans le domaine de la technologie, ces deux frontières sont encore plus floues, car il existe une infinité d’utilisations possibles qui respectent le cadre juridique mais qui, parfois, ne respectent pas le système de valeurs dominant.

L’utilisation de l’IA en milieu de travail vise à optimiser les processus et à soutenir la prise de décisions. Il est alors important d’observer non seulement la manière dont on tire profit des apprentissages qui en découlent mais aussi les décisions potentielles qui en résultent. Trois pièges peuvent notamment poser des problèmes considérables en matière d’éthique.

1. Le piège de l’exclusion

Un des risques les plus sérieux (et les plus médiatisés) inhérents à l’utilisation de l’IA en milieu de travail est l’exclusion. Les algorithmes sur lesquels repose l’IA peuvent comporter des biais considérables et mener à la surestimation de l’importance de certaines données, ce qui peut occasionner des décisions erronées.

L’exclusion en fonction du genre et de l’origine ethnique est un exemple parmi d’autres de ce phénomène. Comme l’ont souligné deux chercheurs dans une étude menée en Europe et en Afrique2, le taux d’erreur de certains logiciels d’analyse vidéo atteindrait 35 % pour les femmes à la peau foncée, contre 1 % pour les hommes blancs. En plus des problèmes d’ordre éthique, le piège de l’exclusion peut entraîner l’élimination de plusieurs candidatures de valeur, la non-reconnaissance de la contribution de certains employés et l’apparition d’un sentiment d’injustice au sein des organisations. Pour prévenir de telles situations, la responsabilité des entreprises consiste entre autres à s’assurer que les algorithmes soient alimentés par des données inclusives et représentatives3.

Pour créer des systèmes d’IA inclusifs et respectueux de l’éthique, il est capital de définir les paradigmes dominants portés par les personnes responsables de la conception, du développement, du déploiement et de la gouvernance des technologies. Pour y parvenir et pour faire partie de la solution, le monde de la technologie doit être à l’écoute des débats en cours, notamment celui que l’actuelle vice-présidente Kamala D. Harris, alors sénatrice démocrate de la Californie, a introduit en 2018 au Sénat américain, qui portait sur les nouvelles technologies de reconnaissance faciale4.

2. Le piège de la punition

Les façons d’utiliser l’IA pour gérer la performance au travail sont multiples et d’une valeur inestimable pour les organisations, surtout dans un contexte de télétravail à grande échelle. En revanche, l’IA ne doit être utilisée ni pour surveiller les employés ni pour prendre des mesures punitives. Le recours à ces avancées technologiques – surtout lorsque les motivations ne sont pas présentées aux gens qui font l’objet de cette surveillance – est porteur de questions éthiques fondamentales.

Certaines applications servent par exemple à mesurer la performance du personnel et à afficher les résultats en temps réel, ce qui peut susciter une concurrence malsaine entre collègues, accroître le stress et causer de l’insatisfaction au travail. L’entreprise IBM propose ainsi une application qui permet d’évaluer le degré de satisfaction des employés et la possibilité qu’ils envisagent de quitter l’organisation. Ce type de programme destiné à anticiper le taux de roulement des effectifs constitue un des recours les plus fréquents à l’IA en milieu de travail5. Toutefois, il y a un risque sérieux non seulement d’interprétation erronée du comportement de certains employés mais aussi de remise en question de leur engagement envers l’organisation. Quelles sont alors les responsabilités des employeurs dans de telles situations?

Une chose est sûre : les avancées technologiques doivent être mises à profit pour développer les compétences, pour renforcer la cohésion des équipes, pour rendre le processus de formation plus ludique et pour accroître la productivité. L’implantation de ces applications doit être bien intentionnée et les données recueillies doivent être utilisées à bon escient. La technologie peut ainsi permettre d’analyser les diverses situations qui se présentent et de résoudre les problèmes de façon objective, sans tenir les employés pour seuls responsables.

3. Le piège de l’intrusion

Les applications en IA offrent de grandes possibilités en matière de gestion des ressources humaines. Elles permettent par exemple de cartographier les expertises et leurs complémentarités, de jauger le moral des troupes et d’analyser certains échanges entre collaborateurs. En revanche, ces applications ne sont pas à l’abri des dilemmes d’ordre éthique : certaines d’entre elles permettent d’analyser les publications sur les médias sociaux pour éventuellement découvrir les facettes moins reluisantes de la personnalité de certains employés6. Ces applications peuvent en effet servir de moyens d’intrusion dans la vie personnelle des gens et d’utilisation non consentie de sources privées d’information.

Une fois que la confidentialité des informations collectées est assurée, il devient possible de tirer profit d’applications très innovantes. Par exemple, la start-up québécoise Mr. Young s’est inspirée de la thérapie cognitivo-comportementale pour concevoir un agent conversationnel avec lequel les employés peuvent discuter de leur anxiété. Cette application en IA récolte certes des données confidentielles mais pourrait s’avérer bénéfique aux employés qui doivent faire face à des situations difficiles, notamment durant la pandémie de COVID-19.

Dans ce contexte, la responsabilité des employeurs consiste à tracer une ligne claire entre la vie privée et la vie professionnelle de leurs collaborateurs et à respecter cette distinction en toute circonstance. La transparence quant aux motifs d’adoption de certains outils technologiques est également cruciale. Enfin, les employeurs doivent exiger le paramétrage adéquat des solutions d’IA auxquelles ils ont recours et résister à la tentation de mettre la main sur de l’information dont l’obtention est interdite par la loi. Un exemple : certains logiciels d’analyse des traits du visage permettent notamment de deviner l’orientation sexuelle d’une personne à partir d’une simple photo7. Évidemment, la collecte et la possession de ce type d’information en milieu de travail sont injustifiables; de ce fait, les manières dont les entreprises useront (ou abuseront) des informations obtenues grâce à l’IA définiront sans doute leur profil éthique8.

La protection et l’utilisation des données

Plusieurs questions se posent en ce qui a trait aux données qui servent à alimenter l’IA en milieu de travail. D’où proviennent les données sur les employés et comment sont-elles traitées? Quelles mesures prend-on pour protéger ces informations et pour assurer le caractère éthique de leur utilisation?

La protection des données

En Amérique du Nord, il n’existe à ce jour aucune législation destinée à protéger les informations confidentielles des employés de toute utilisation malveillante et à en réserver l’accès aux seules personnes autorisées. Ces responsabilités incombent dès lors aux employeurs, qui doivent s’inspirer d’autres cadres réglementaires, par exemple le Règlement général sur la protection des données, en Europe, pour prouver qu’ils gèrent les données de leurs employés de manière responsable. En 2020, le Québec s’est inspiré de ce règlement et a introduit le projet de loi 64, qui a pour ambition de moderniser plusieurs dispositions législatives en matière de protection des renseignements personnels.

Le partage du contrôle des données

Les employés n’étant pas tenus d’autoriser leur employeur à collecter des données personnelles à leur sujet, la gestion équilibrée de ces informations constituerait manifestement une solution adéquate. En effet, un sondage de la firme-conseil Accenture a montré que 90 % des travailleurs interrogés seraient prêts à permettre à leur employeur de récupérer et d’analyser leurs données seulement s’ils jugent qu’il s’agit d’une situation «gagnant-gagnant9». Ce qu’il serait «juste de faire» pour les entreprises consisterait alors à partager avec les employés tant le contrôle des données que les avantages qui en découlent. Ainsi, l’entreprise australienne de télécommunications Telstra offre aux membres de son personnel la possibilité de gérer, de compléter et même de remettre en question certaines données qui les concernent. Les organisations doivent donc être à l’écoute de leurs collaborateurs qui se préoccupent du fait que l’IA permet d’en connaître beaucoup sur eux mais qu’ils en savent eux-mêmes trop peu sur cette technologie. L’éthique commande alors d’ouvrir la «boîte noire» de l’IA et d’en expliquer le fonctionnement afin d’obtenir la confiance du personnel.

Pour que l’intelligence humaine et l’intelligence artificielle puissent s’alimenter mutuellement et créer des synergies, la première et les concepteurs de la seconde doivent tous reconnaître leurs propres limites et miser sur l’amélioration continue. Ensemble, ces deux intelligences seront sans doute en mesure de distinguer ce qu’on a le droit de faire et ce qu’il est juste de faire.


Notes

1 Traduction libre d’une citation tirée de Coffey, R., «Ethics for community planning» (texte en ligne), Michigan State University Extension, 31 décembre 2013.

2 Buolamwini, J., et Gebru, T., «Gender shades: Intersectional accuracy disparities in commercial gender classification», article présenté à la Conference on Fairness, Accountability, and Transparency de l’Association for Computing Machinery les 23 et 24 février 2018 et publié dans Proceedings of Machine Learning Research, volume 81, p. 77-91.

3 Dignum, V., Responsible Artificial Intelligence – How to Develop and Use AI in a Responsible Way, Basingstoke (R.-U.), Springer Nature, 2019, 136 pages.

4 Lettre signée par la sénatrice Kamala Harris (ainsi que par deux autres sénatrices américaines, dont Elizabeth Warren) et déposée lors d’une audience de l’Equal Employment Opportunity Commission du Sénat des États-Unis le 17 septembre 2018.

5 Davenport, T. H., «Is HR the most analytics-driven function?» (article en ligne), Harvard Business Review, 18 avril 2019.

6 Akhtar, R., Winsborough, D., Ort, U., Johnson, A., et Chamorro-Premuzic, T., «Detecting the dark side of personality using social media status updates», Personality and individual Differences, vol. 132, octobre 2018, p. 90-97.

7 Wang, Y., et Kosinski, M., «Deep neural networks are more accurate than humans at detecting sexual orientation from facial images», Journal of Personality and Social Psychology, vol. 114, n° 2, février 2018, p. 246-257.

8 Dattner, B., Chamorro-Premuzic, T., Buchband, R., et Schettler, L., «The legal and ethical implications of using AI in hiring» (article en ligne), Harvard Business Review, 25 avril 2019.

9 Shook, E., Knickrehm, M., et Sage-Gavin, E., «Decoding organizational workforce DNA» (article en ligne), Accenture.