Article publié dans l'édition Été 2021 de Gestion

Imaginez une machine super-intelligente, capable de s’améliorer elle-même de façon exponentielle. En soi, cette idée incite à prendre au sérieux le concept d’éthique des algorithmes, c’est-à-dire une manière de programmer les machines ou les robots en fonction de principes moraux. Questionnements vertigineux!

Les robots sont partout et destinés à rester parmi nous. Par exemple, plus de 20 % des foyers américains utilisent déjà des assistants virtuels. Les voitures autonomes, les robots militaires ou artistes ainsi que les robots de soins sont donc appelés à occuper une place grandissante dans nos vies. «De nombreux experts estiment que d’ici 2050, il y a 50 % de chances qu’on parvienne à concevoir une intelligence artificielle comparable à l’intelligence humaine», rapporte Martin Gibert, un chercheur en éthique qui anticipe «un avenir perfusé de systèmes d’intelligence artificielle». Alors, avec quelle sorte de robots voulons-nous vivre?

Le choix d’une éthique

D’emblée, Martin Gibert précise dans son ouvrage en quoi consiste l’éthique des algorithmes. Elle se distingue de l’éthique de l’intelligence artificielle (IA), car elle correspond plus précisément à la branche de l’éthique de la technologie qui évalue les systèmes d’IA afin de déterminer s’ils sont bons pour nous. Il s’agit donc non pas d’évaluer nos propres choix (faut-il robotiser ou non?) mais d’intégrer des principes moraux dans les choix des robots eux-mêmes pour s’assurer qu’ils prennent des décisions éclairées et opportunes.

Des agents moraux artificiels

Des robots qui se comportent en agents moraux artificiels (AMA) deviennent-ils responsables de leurs actes? «On peut dire que leur degré d’agentivité morale (au sens faible du terme) varie selon leur niveau d’autonomie et leur effet sur la vie des gens», souligne le chercheur, affilié au Centre de recherche en éthique (CRÉ) et à l’Institut de valorisation des données (IVADO), à Montréal. Il cite ainsi le cas du robot Aristotle, conçu pour interagir socialement, même si son intelligence ne franchit jamais la barrière de la conscience.

Toutefois, comment évaluer les actions de ces robots? Que signifie «être un bon robot», par exemple lorsqu’il s’agit d’une voiture autonome? Afin de résoudre le célèbre dilemme de l’accident inévitable, la voiture autonome devrait-elle choisir d’écraser l’enfant ou le vieillard? Entre éthiques plurielles, relativisme moral, absence de sens commun et insensibilité émotionnelle, la prise de décisions morales chez les robots se heurte à bien des obstacles et à bien des questionnements. Au final, «les programmeurs risquent de faire des AMA à leur image, en concordance avec leurs intuitions morales. Comme avec n’importe quelle technologie, il serait surprenant qu’une IA ne reflète pas en partie les valeurs de ceux qui la conçoivent». Une piste de solution? L’auteur penche pour un apprentissage profond des actions les plus vertueuses, histoire de rendre les robots dignes de confiance. Reste encore à trouver ces modèles de vertu... ou à faire confiance à l’intelligence collective.


Note

Gibert, M., Faire la morale aux robots – Une introduction à l’éthique des algorithmes, Montréal, Atelier 10, 2020, 102 pages.