L’intelligence artificielle (IA) soutient de plus en plus la prise de décisions au sein des organisations. Or, elle n’est pas exempte de biais, et son utilisation a déjà conduit à des conséquences discriminatoires. Quelles actions les organisations doivent-elles poser pour éviter les dérapages?

Fonder ses décisions professionnelles sur un système d’intelligence artificielle (SIA) permet de bénéficier d’analyses de données qu’il nous serait difficile et même impossible de traiter en tant qu’humain tellement leur nombre est considérable. Étant donné que les SIA fonctionnent selon un apprentissage basé sur des informations, ils sont le reflet même des systèmes et des gens qui leur fournissent ces dernières. Ainsi, ils tendent à reproduire, voire à amplifier le contexte culturel et social dans lequel ils sont créés, y compris ses biais et stéréotypes. Des exemples concrets ont déjà émergé de SIA qui se sont avérés discriminatoires, notamment envers les femmes (par exemple lors du recrutement) ou les membres de minorités visibles (notamment avec la reconnaissance faciale).

Plus souvent qu’autrement, deux raisons majeures expliquent qu’un SIA puisse produire des résultats discriminatoires. La première : il y a eu un manque de considération des biais (culturels, sociaux, lexicaux, expérientiels, etc.) qui lui ont été transmis par les concepteurs des SIA et de l’évaluation de leur incidence sur les résultats produits. La seconde : si elles n’ont pas fait l’objet de corrections, les données d’apprentissage ou d’entraînement du SIA amènent ce dernier à exacerber les biais des systèmes existants ainsi que les discriminations dont ils font preuve.

Qui est responsable des décisions prises?

De plus en plus d’organisations font confiance à un SIA pour recruter des gens, les sanctionner, leur octroyer un produit ou service, assurer leur sécurité, etc. Elles s’attendent légitimement à ce que ces SIA ne leur fassent pas courir le risque d’être accusées d’avoir pris une décision discriminatoire. Or, les mécanismes par lesquels un SIA a suggéré telle décision plutôt qu’une autre prennent le plus souvent la forme une vaste « boîte noire » pour ses utilisateurs. C’est-à-dire que les algorithmes et les arbres de décisions internes au SIA sont inconnus et peu compréhensibles aux utilisateurs.

Pour les organisations, implanter un SIA peut se révéler un projet substantiel et coûteux, avec un rendement de l’investissement parfois incertain. Ainsi donc, il peut paraître tentant de ne pas chercher à surcharger le dossier d’analyse de rentabilité du projet ainsi que les équipes impliquées en y ajoutant une réflexion et des contraintes en matière d’équité, de diversité et d’inclusion (ÉDI). D’autant plus que, même avec de bonnes intentions initiales, il est parfois difficile de savoir comment appliquer des principes ÉDI dans un projet de SIA et de s’assurer que les résultats seront conformes et respectueux de ces fondements.

Or, les organisations sont responsables des décisions prises; elles doivent s’assurer de comprendre et réduire les risques de discriminations que peuvent générer leurs SIA à l’endroit de leur clientèle et de leurs employés. Les effets négatifs des décisions de SIA non équitables s’avèrent très importants pour les organisations, que ce soit d’un point de vue juridique, financier ou réputationnel. Se réfugier derrière la « boîte noire » de ces systèmes et son incompréhension ou se contenter de faire aveuglément confiance à la solution numérique ne représente donc pas une option acceptable. En résumé, les organisations se doivent d’être vigilantes lorsque vient le temps pour elles d’implanter un SIA, en adoptant des principes concrets et des pratiques tangibles pour réduire de tels risques.

Comment implanter un SIA responsable?

Des échanges avec un panel[1] d’experts ont permis d’identifier plusieurs principes et pratiques qui sont nécessaires pour la mise en œuvre de SIA non discriminatoires et inclusifs :

  • Intégrer les enjeux et principes ÉDI à tout projet de SIA[2].
  • Repérer, le plus en amont possible, les biais pouvant exister dans les systèmes et les processus qui devront être pris en charge par le SIA.
  • Définir une gouvernance de projet de SIA impliquant l’ensemble des parties prenantes dans leur diversité, pour limiter les biais et stéréotypes.
  • Associer des paramètres et indicateurs ÉDI au projet de SIA tout au long de son implantation afin de responsabiliser les acteurs.
  • Corriger les données d’apprentissage utilisées, pour une meilleure représentativité et une plus grande équité.
  • Simplifier le langage afin que les mécanismes de décision soient compris par tout le monde.
  • Évaluer les effets et résultats du SIA non seulement en amont, mais aussi en continu.

Le panel d’experts a aussi mis de l’avant les façons dont l’IA peut faire partie de la solution, en détectant et corrigeant les biais déjà existants dans les systèmes. Bref, il y a lieu de se demander si l’IA n’est pas déjà en train de forcer les organisations à réviser leurs systèmes et à mettre en place des politiques et programmes en ÉDI.


Notes

[1] Cet article a été écrit en collaboration avec Ronny Aoun (Valital Technologies), Allison Cohen (Mila), Shalee-Fa Diop (Digno Solution), Tania Saba (Université de Montréal) et Behnaz Saboonchi (EY) à l’occasion d’un événement organisé en février 2022 par l’Observatoire international sur les impacts sociétaux de l’IA et du numérique (OBVIA).

[2] Entre autres exemples : Université de Montréal, La déclaration de Montréal pour un développement responsable de l’intelligence artificielle, 2018.