À l’heure de l’intelligence artificielle, faut-il encore décider ?
À l’heure de l’intelligence artificielle,
faut-il encore décider ?
Éric Hazan et Olivier Sibony, accompagnés de Delphine Remy-Boutang, Antonin Bergeaud, Thomas Clozel et Charles Gorintin, ont ouvert un débat le 18 mars chez we are_ aussi précis que vertigineux : à l’heure de l’intelligence artificielle, faut-il encore décider ?
Entre transformation technologique, enjeux de confiance et arbitrages collectifs, retour sur une discussion qui déplace en profondeur la place de la décision humaine à l’ère de l’IA.
La question n’est pas de savoir s’il ne faut plus décider, mais où, comment et jusqu’où décider humainement.
Olivier Sibony
Dans de nombreux domaines, des systèmes automatiques peuvent désormais prendre de meilleures décisions que les humains. Pour Olivier Sibony, professeur à HEC Paris et à Oxford, cette réalité nourrit une angoisse nouvelle, celle d’être dépossédé de notre capacité à choisir.
Mais le débat ne consiste pas à opposer frontalement l’humain et la machine. Il repose sur un renversement : la décision humaine ne doit plus être considérée comme un idéal parfait. Elle est, par nature, imparfaite et biaisée. Dès lors, la comparaison pertinente n’est pas entre l’IA et une version idéalisée de nous-mêmes, mais entre l’IA et la décision telle qu’elle existe réellement.
Jusqu’où confier nos décisions à l’IA ?
Dans certains domaines, médecine, finance, logistique, déléguer certaines décisions à des systèmes mieux entraînés peut ainsi produire des bénéfices concrets.
Olivier Sibony structure alors la réflexion autour de trois situations.
- La première est celle de la délégation : lorsque l’IA décide à notre place, à condition que la confiance soit construite à travers des processus d’évaluation, de test et d’audit.
- La seconde est celle de la co-décision : l’IA ne tranche pas, mais aide à cadrer un problème, générer des options, structurer un raisonnement.
- La troisième concerne les cas où l’on choisit consciemment de ne pas déléguer, même si la machine pourrait mieux faire.
Cette logique se prolonge avec Éric Hazan, entrepreneur, professeur à HEC et à Sciences Po Paris, qui appelle à une véritable cartographie des décisions. Plutôt que d’être pour ou contre l’IA, il propose d’identifier différents territoires : ceux où la délégation est déjà largement acceptée, ceux où l’incertitude domine, et ceux que la société peut juger non délégables.
Il cite notamment la justice pénale lourde, où, malgré les biais et les limites humaines, il reste socialement fondamental qu’un humain juge un autre humain. Plus largement, il insiste sur un point clé : la décision humaine ne disparaît pas, elle se déplace vers la définition des règles, des objectifs et des limites d’usage.
L’IA face à la décision médicale
Thomas Clozel, cofondateur et CEO d’Owkin, adopte une position plus radicale, en particulier dans le domaine médical. Selon lui, les humains prennent de mauvaises décisions face à la complexité du vivant. Dans certains cas, il ne s’agit donc pas simplement d’assister la décision humaine, mais de la remplacer. Il évoque notamment la radiologie comme un domaine où il ferait déjà davantage confiance à une IA.
Il introduit cependant un critère central : la capacité d’un système à reconnaître ses propres limites, à dire « je ne sais pas ». Une condition essentielle pour instaurer la confiance.
La confiance par l’évaluation
Cette question de la confiance est au cœur de l’intervention de Charles Gorintin, cofondateur non exécutif de Mistral AI et CTO d’Alan. Selon lui, beaucoup de critiques de l’IA reposent sur l’idée qu’il s’agirait d’une “boîte noire” à laquelle on ne pourrait jamais se fier. Pourtant, notre environnement en est déjà rempli, à commencer par le cerveau humain. Ce qui rend un système acceptable, , ce n’est pas qu’on les comprenne parfaitement, mais qu’on les ait suffisamment évalués, testés et éprouvés. Il compare l’IA à l’aviation : on ne comprend pas tout, mais on délègue dès lors que la fiabilité est prouvée.
À ses yeux, la technologie repousse en permanence les limites de ce que l’on accepte de déléguer, comme dans le développement logiciel, où l’écriture de code est déjà largement automatisée. La vraie question n’est donc pas ce que l’IA ne fera jamais, mais ce que l’humain choisit encore de faire.
L’IA, une question sociétale
Delphine Remy-Boutang, founder & CEO de JFD, apporte une lecture sociétale du sujet. L’IA est, selon elle, une question de pouvoir : qui conçoit les systèmes, qui les utilise, qui en gouverne les usages. Elle insiste sur la nécessité d’une appropriation plus large, notamment pour éviter que certaines populations, comme les femmes, ne restent à l’écart de ces transformations. Elle met également en avant l’importance des soft skills : empathie, créativité, sens entrepreneurial. Des dimensions où l’humain conserve un rôle central, notamment lorsqu’il s’agit d’inventer ou de sortir du cadre des données existantes.
Le paradoxe d’une IA utilisée, mais cachée
Antonin Bergeaud, économiste et Associate Professor à HEC, enfin, propose une lecture macroéconomique. Malgré l’ampleur du sujet, les effets de l’IA sur l’économie restent très incertains. Il souligne un paradoxe : les outils sont faciles à utiliser, mais leur usage reste souvent invisible. Beaucoup de salariés les utilisent déjà massivement, sans le dire, par peur d’être perçus comme des tricheurs, des fainéants ou des travailleurs remplaçables. Cette dissimulation freine la transformation productive réelle, car le gain de temps n’est pas nécessairement converti en production supplémentaire visible.
L’humain ne cesse pas de décider, il décide autrement
La conférence se conclut sur une idée forte : à mesure que l’IA prend en charge une partie des décisions, le rôle de l’humain ne disparaît pas. Il se transforme. Moins présent dans l’exécution immédiate, il devient central dans la définition des objectifs, des règles, des limites et des critères de confiance.
Au fond, la question n’est pas de savoir s’il faut être pour ou contre l’IA, mais de déterminer où déléguer, où co-décider, et où refuser de déléguer. Et dans ce déplacement, une évidence s’impose : l’humain ne cesse pas de décider, il décide autrement.
