Lorsque ChatGPT a fait irruption dans nos vies, à l’automne 2022, la professeure d’informatique Golnoosh Farnadi a été l’une des rares personnes à se réjouir de la controverse que cet outil fondé sur l’IA a suscitée. «Pour la première fois, les gens ont commencé à réfléchir et à se demander si l’intelligence artificielle pouvait avoir des préjugés, si elle pouvait être raciste ou sexiste», explique-t-elle.

Aujourd’hui professeure adjointe à l’Université McGill, cette grande spécialiste canadienne en matière d’équité algorithmique et d’IA responsable s’intéresse à la manière d’exploiter l’intelligence artificielle de façon durable. «L’IA présente certes de nombreux avantages potentiels pour la société», reconnaît la chercheuse, qui a débuté sa carrière en travaillant sur les possibles bienfaits de cette technologie. Sa recherche doctorale portait sur la manière de prédire divers types de personnalités en fonction du comportement des utilisateurs en ligne. «J’examinais la portée d’éléments tels que les mises à jour de leurs statuts sur Facebook ou leurs gazouillis sur Twitter (aujourd’hui, X), la fréquence de publication, le type de pages qu’ils aimaient, les images qu’ils téléchargeaient. J’ai constaté que nous pouvions connaître les traits de personnalité des gens et voir, par exemple, s’ils sont extravertis ou introvertis, selon leurs activités dans les médias sociaux.»

Mais sa perspective a changé radicalement en rédigeant sa thèse, alors qu’elle prenait conscience du fait que le profilage fondé sur l’empreinte numérique comportait plusieurs dangers. «Des entreprises me contactaient dans l’espoir de pouvoir utiliser mes recherches pour créer des outils de sélection à l’embauche. Elles espéraient se débarrasser des questionnaires et pouvoir automatiser l’évaluation des divers types de personnalités.»

L’idée était terrifiante, dit-elle. «Les informations recueillies à partir du comportement en ligne ne permettent pas de brosser un portrait véritable de la situation. Les données concernant les utilisateurs des médias sociaux ne s’appliquent qu’à leur comportement en ligne. Par exemple, un extraverti qui n’utilise pas les médias sociaux passe alors pour un introverti. Et inversement pour un introverti qui se défoule sur le Web», explique-t-elle. Avant de conclure sa thèse, Golnoosh Farnadi a donc décidé d’y ajouter un chapitre de mise en garde pour expliquer que les employeurs devraient éviter d’utiliser ces données dans leurs processus d’embauche.

Cette expérience l’a amenée à réfléchir aux dangers de l’utilisation de l’IA comme outil prédictif dans le monde du travail. «Les outils d’IA ont intégré des préjugés. Ils apprennent à connaître le comportement humain à partir des données qu’ils collectent en fouillant dans le passé. Mais les données historiques utilisées pour “entraîner” les algorithmes comportent des discriminations et sont entachées de préjugés», explique-t-elle. Selon la professeure, l’ensemble de la chaîne d’apprentissage automatique sur laquelle nous nous basons depuis si longtemps est erronée. «Si les informations collectées par l’IA sont influencées par des préjugés racistes ou sexistes, les résultats de ces systèmes seront également racistes ou sexistes», affirme-t-elle.

Golnoosh Farnadi

Golnoosh Farnadi, professeure adjointe à l’Université McGill.

Elle donne l’exemple des prêts bancaires qui, historiquement, n’étaient pas accordés aux femmes. «Les banques avaient aussi des préjugés à l’encontre des communautés noires et d’autres minorités visibles. En s’appuyant sur leurs propres données historiques pour concevoir des modèles prédictifs capables d’analyser des dossiers de demande de prêt, les banques se fondent sur des données et des comportements qui sont biaisés.»

Golnoosh Farnadi consacre désormais tout son temps à la correction des biais inhérents à tous les outils d’IA. «Puisque l’IA apprend à partir des données passées et que celles dont nous disposons sont très déséquilibrées, cette technologie fonde ses décisions sur “la majorité”, au détriment de tous les groupes minoritaires. Dans le cas des prêts bancaires, par exemple, un outil d’IA recherchera des candidats similaires à ceux qui ont remboursé leurs prêts dans le passé. Mais comment cela peut-il être juste alors qu’historiquement, ce sont surtout des hommes qui ont obtenu des prêts? Il n’y a pas si longtemps, les femmes n’avaient même pas droit à un tel privilège!»

Selon Golnoosh Farnadi, il ne sera jamais possible de rendre les algorithmes plus équitables en collectant toujours plus de données qui sont, de toute façon, biaisées. Si la source des informations utilisées pour l’IA est raciste ou sexiste, le biais se nourrit lui-même», dit-elle.

Golnoosh Farnadi affirme que ce problème peut être corrigé en injectant une mesure d’équité dans l’intelligence artificielle. «En fait, le biais ne se trouve pas seulement dans les données, mais aussi dans la conception du système. J’interviens pour voir comment nous pouvons réellement concevoir de meilleurs modèles d’IA, et ensuite, comment définir cette mesure et l’incorporer dans le système pour corriger les biais historiques.»

Les deux dangers de l’IA

Golnoosh Farnadi a ressenti une dose d’optimisme au printemps 2023, lorsque plusieurs grandes personnalités du monde numérique, dont Yoshua Bengio, Elon Musk et Steve Wozniak, ont signé une lettre ouverte appelant tous les grands laboratoires à faire une pause dans le développement des systèmes d’IA. «L’industrie de l’intelligence artificielle est en train de changer sa propre façon de voir la technologie. Tous les acteurs savent que leur réputation est désormais en jeu. Les entreprises s’efforcent de rendre l’IA plus équitable. Ce n’était pas le cas auparavant», explique-t-elle.

Selon la professeure, il faut travailler sur deux plans : non seulement sur les risques terrifiants liés à cette technologie, mais aussi sur les dommages qu’elle cause déjà actuellement. «Il est toujours important de ne pas tomber dans le piège de la hiérarchisation, insiste-t-elle. Ce serait une erreur de prioriser les risques qui se posent à l’humanité en général sous prétexte qu’ils sont plus graves que les répercussions que ces technologies ont déjà sur les êtres humains.»

Les risques futurs, tels que l’évolution des connaissances générales de l’IA et le danger de prise de contrôle de l’humanité, peuvent être contrés par une réglementation internationale, explique-t-elle. «Le modèle développé par l’ONU pour prévenir le risque nucléaire par la mise en œuvre de différents accords, par exemple, est intéressant : l’arme atomique n’est certes pas interdite, mais l’environnement s’en trouve tout de même plus sûr parce que les États endossent certaines responsabilités juridiques. Les pays se sont rendu compte que sans une réglementation adéquate, la civilisation était menacée.»

Les nations, les concepteurs de l’IA et les utilisateurs doivent aussi être attentifs aux effets négatifs qui se manifestent déjà sur les lieux de travail. «Dans ce cas, ce que je propose, c’est de développer des normes dynamiques où la réglementation se met en place à mesure que les entreprises qui produisent de l’IA se soumettent à une vérification externe selon des critères éthiques.»

Selon Golnoosh Farnadi, les dommages causés par l’IA ne sont pas nécessairement ceux qu’on anticipait. «Bien des gens pensent l’IA élimine les emplois répétitifs les moins intéressants, mais ce n’est pas le cas : les systèmes d’IA remplacent plutôt les cadres de niveau intermédiaire. Ces systèmes ne sont pas nécessairement meilleurs que des êtres humains, mais ils sont plus “efficaces”, parce qu’ils coûtent moins cher et ne prennent jamais de congé de maladie!»

Bref, le coût humain de l’IA existe déjà, estime Golnoosh Farnadi. «Les emplois qui disparaissent comportaient des exigences, comme des diplômes universitaires et des années d’expérience. L’IA ne remplace pas les personnes qui entrent sur le marché du travail ou qui sont au bas de l’échelle : elle remplace celles qui ont déjà une carrière et qui gèrent des processus. Le monde du travail doit élaborer des règlements et protéger ces gens dont l’emploi risque d’être éliminé.»

Golnoosh Farnadi nous recommande fortement d’être prudents. «La société qui utilisera ces systèmes dans le futur ne sera pas en sécurité si nous n’y pensons pas aujourd’hui. Nous devons tirer des leçons de l’histoire. Et nous devons dès maintenant mettre en place les garde-corps nécessaires», conclut-elle.

Article publié dans l’édition Hiver 2024 de Gestion