L’intelligence artificielle se fait de plus en plus présente dans nos vies. La transition numérique s’inscrit aussi dans les processus organisationnels, permettant aux entreprises de gagner en efficacité. Quels sont les enjeux reliés à l’éthique dans un tel contexte?

Les technologies se développent à un rythme sans précédent. Il faut dire que certaines d’entre elles, en particulier l’intelligence artificielle (IA), ont progressé à une vitesse stupéfiante.

Si cette transformation est une source de progrès, elle soulève aussi de nombreuses questions. Comment s’assurer que ces technologies soient utilisées à bon escient et éviter les dérives potentielles? De quelle façon réduire les risques, pallier les enjeux éthiques, et ce sans compromettre le développement et la croissance des entreprises? Joé T. Martineau, professeure d’éthique organisationnelle au département de management de HEC Montréal et formatrice à l’École des dirigeants de HEC Montréal dans le cadre de la formation Big Data et IA : Décodez les enjeux éthiques et légaux, nous éclaire sur le sujet.

De multiples questionnements

Avec l’exploitation des données massives (big data) et le recours à l’apprentissage profond (deep learning), l’IA a fait des pas de géant. Le secteur de la santé en a largement bénéficié, la radiologie diagnostique par exemple, mais ce n’est pas le seul. L’IA est aussi à l’œuvre dans les services professionnels, le commerce de détail, ainsi qu’une foule d’autres domaines où l’analyse de données, l’automatisation et l’amélioration de la prise de décision peuvent générer de la valeur.

Pour les organisations, ces avancées technologiques visent l’amélioration des processus et de la performance, éventuellement de la rentabilité. Or, il y a encore peu d’encadrement réglementaire de l’IA, et quand bien même il en existerait une, les progrès sont si rapides que la législation deviendrait rapidement obsolète. «C’est pourquoi la réflexion éthique est devenue un incontournable. Cela touche en effet de nombreux enjeux. On peut se demander par exemple si ces technologies sont bénéfiques pour le bien commun, si elles sont désirables. Aussi, même si elles ont été développées en toute intégrité, il peut exister un potentiel d’utilisation malveillante ou non éthique de certaines technologies. Et puis, à qui revient la responsabilité d’une décision prise par un système d’IA, et qui sera imputable en cas d’erreur?», illustre Joé T. Martineau. Elle ajoute que se pose également la question de la confiance et de l’acceptabilité sociale, car si le public rejette ces technologies, cela nuira nécessairement à leur utilisation et leur adoption. «Pour certaines de ces technologies, notamment celles mobilisant l’apprentissage profond, il y a un phénomène de boîte noire : parfois il est difficile de comprendre et d’expliquer comment le système est arrivé à une suggestion, une décision. Ce manque d’explicabilité est problématique, car moins un système est transparent, et moins les utilisateurs lui feront confiance, voudront l’adopter», dit la professeure. Au bout du compte, les entreprises pourraient avoir investi dans des technologies coûteuses et sophistiquées qu’elles devront mettre au rencard faute d’acceptabilité sociale.

Par ailleurs, puisque leur apprentissage repose sur des données et décisions humaines parfois imparfaites et partiales, ces technologies ne sont pas exemptes de biais. «Pour développer les systèmes d’IA, il faut les entraîner les algorithmes avec une quantité incroyable de données. Or, ces données sont susceptibles de renfermer des biais discriminatoires qui, par le fait même, seront intégrés aux décisions prises par l’IA. Cela pourrait donc potentiellement amplifier les biais par rapport à des populations marginalisées», mentionne-t-elle.

Une nécessaire réflexion

La professeure souligne que les entreprises devraient se garder d’effectuer une profonde transformation numérique sans avoir préalablement analysé les questions éthiques que cela soulève. «Il est préférable d’opérer une réflexion sur les choix effectués, de façon à ce que les technologies que l’on compte adopter soient effectivement à source d’une amélioration. On devra faire la démonstration qu’elles auront un impact positif et non négatif», explique-t-elle.

Pour y parvenir, il est essentiel d’œuvrer en collaboration avec des experts en éthique. Ils seront les mieux placés pour réaliser un bilan des enjeux propres à l’organisation, des bonnes pratiques à intégrer et des précautions à prendre.

«En entreprise, les besoins en sensibilisation et en formation sont grands. L’éthique est un sérieux enjeu susceptible d’avoir des répercussions importantes, pouvant aller jusqu’à compromettre à la fois l’utilisation et l’adoption de ces technologies», prévient Joé T. Martineau.

Elle ajoute qu’il faut également effectuer une réflexion sous l’angle stratégique, en se demandant notamment si les divers éléments de la transformation numérique, même s’ils sont rendus possibles en raison des progrès scientifiques, demeurent néanmoins tous souhaitables sous l’angle éthique.

Pour toutes ces raisons, il y a urgence d’agir pour les organisations. Ces dernières devraient donc faire preuve de proactivité et assurer une utilisation éthique des données massives, de l’intelligence artificielle et des différentes avancées technologiques qui en découlent.