Symboles des promesses et des menaces de l’intelligence artificielle (IA), l’entreprise OpenAI et son dirigeant, Sam Altman, contraint au départ puis rappelé, ont fait la une des médias cet automne. André Coupet propose ici une analyse des erreurs de gouvernance à éviter ainsi que quelques leçons à en tirer.

Les clameurs se sont tues. La saga OpenAI, maison mère de ChatGPT, fait relâche depuis quelques semaines; une éternité! Pourtant, les spectateurs savent que la pièce de théâtre n’est pas finie, bien sûr. Alors, profitons de l’entracte pour tirer les leçons de cette mésaventure, nous qui souhaitons voir émerger un capitalisme responsable doté d’une raison d’être axée sur l’utilité à l’égard de la société, doublé d’un objectif économique.

Les pas de danse de Sam Altman entre OpenAI et Microsoft, suivis par 95% des salariés d’OpenAI en quête d’une plus-value alléchante, démontrent, au-delà de l’avidité des acteurs, l’impératif du capital et, surtout, la naïveté du conseil d’administration (CA) d’OpenAI.

Lancée en 2015 avec un statut d’organisme à but non lucratif (OBNL) et une raison d’être irréprochable – soit celle de «créer une IA de façon sûre et bénéfique pour l’humanité» –, OpenAI a rapidement eu à faire face au besoin immense de financer à la fois la recherche et la mise en marché de ses logiciels-robots de type ChatGPT.

Des erreurs de gouvernance

Sans être dans le secret des dieux – après tout, nous ne sommes que de simples lecteurs des comptes rendus de presse, n’est-ce pas? –, nous pouvons néanmoins pointer ici au moins quatre erreurs de gouvernance qu’il faut à tout prix éviter.

Tout d’abord, OpenAI n’aurait pas dû créer une filiale. En effet, il est extrêmement difficile de piloter un OBNL et une filiale à but lucratif sans provoquer une distorsion. La filiale échappe aux contraintes, à la rigueur, à la philosophie de la maison mère.

Nous rencontrons souvent ce type de divergence au sein de grands groupes coopératifs, agricoles ou financiers qui sont à la recherche d’économies d’échelle et créent de multiples filiales de droit privé ayant accès aux marchés financiers, s’attaquant alors à des marchés différents de leurs bases d’adhérents. Un exemple parmi tant d’autres : dans les années 1990-2000, la Fédération nationale du Crédit agricole, en France, avait laissé à sa filiale Casa (une société anonyme cotée en bourse) la possibilité d’agir sur les marchés financiers… mais pas forcément selon les paramètres et, surtout, les valeurs des membres des caisses régionales. Ces derniers ont fini par convaincre leur fédération de reprendre le contrôle de Casa. Yves Rocher, société à mission, s’est de son côté bien assurée de doter sa filiale Petit Bateau d’une raison d’être parfaitement compatible avec celle du Groupe Yves Rocher, sans quoi «nous aurions été obligés de nous en séparer», disait Bris Rocher, directeur général de l’entreprise de cosmétiques (entre autres branches).

Il est clair que la filiale d’OpenAI, avec l’arrivée massive des fonds de Microsoft – quelque 10 milliards de dollars! –, a déséquilibré l’édifice. OpenAI aurait dû, et c’est logiquement sa deuxième erreur ici, se transformer en société à but lucratif, tout en gardant sa raison d’être. Après tout, il n’est ni interdit ni impossible d’avoir une double vision, à l’instar de celle des pionniers en la matière que sont Patagonia, Ben & Jerry’s, Bonduelle, Schneider Electric et Cascades de même que quantité d’entreprises certifiées B Corp dans le monde, sans oublier les sociétés à mission en France… Tous ces acteurs d’une économie responsable sont, en effet, parfaitement capables de générer des résultats économiques enviables.  

En revanche, il est crucial – et c’est ici la troisième erreur à signaler – que la raison d’être d’une entreprise débouche sur des engagements précis et des principes d’action; en d’autres mots, sur une sorte de code de conduite ou de charte qui exige parfois des renoncements. Dans le cas de toute entreprise à l’œuvre dans le domaine de l’IA, ce code de conduite devrait être directement lié à une vision humaniste du progrès, ce type d’intelligence devant se développer en maximisant ses retombées positives pour l’humanité et en limitant les retombées négatives, voire en se les interdisant.

Ainsi, OpenAI aurait eu avantage à assurer le concours de ses clients. Ceux-ci auraient pu être impliqués dans l’application de ce code de conduite, dans la mise en œuvre effective de la raison d’être de l’entreprise sur toute la chaîne jusqu’à l’utilisateur final. Tout le monde n’est pas mal intentionné, et bien des acteurs auraient souhaité (et le veulent sûrement encore aujourd’hui) connaître les balises du leader qu’est OpenAI... Enfin – et cela constitue une erreur trop classique; la quatrième et dernière à mettre de l’avant dans le cadre de cette analyse –, la stratégie d’OpenAI aurait dû être totalement pilotée par son conseil d’administration; un CA bienveillant à l’égard des idées de son président-directeur général et de son directeur scientifique, certes, mais un CA qui, surtout, se positionne clairement comme le gardien de la raison d’être et de la pérennité de l’entreprise. Voilà deux rôles qui lui donnent la légitimité de décider de la stratégie et d’en confier l’exécution à l’équipe de direction (l’exécutif).

Et maintenant?

Il n’est pas interdit de penser que le nouveau CA reprendra à son compte la raison d’être d’OpenAI version 1 et tiendra compte des préconisations détaillées ci-dessus.

Or l’appétit des acteurs, pour ne pas dire leur avidité, les amènera-t-il à être vraiment responsables à l’égard de l’humanité? Que voudra donc le gagnant du match, ce puissant actionnaire qu’est Microsoft? Ce dernier peut-il freiner ses ardeurs de conquête et de rendement financier pour mettre son leadership historique, son savoir-faire et la toute-puissance de sa marque au service d’un monde déboussolé qui voit venir l’IA comme une arme comparable à celle que l’énergie nucléaire a été au milieu du siècle dernier?

La suite de la série OpenAI dans nos médias favoris…