Les deux visages des agents IA

L’agent IA Janus • Qant avec GPT-4o

L'IA « agentique » est à la croisée des chemins. Alors que l'IA pourrait être un bon conseiller pour les humains – en nous fournissant des informations utiles, fiables et pertinentes en temps réel – les agents d’IA autonomes sont susceptibles d'engendrer de nombreux problèmes prévisibles, tout en érodant bon nombre des avantages que la technologie aurait pu offrir.

Par Daron Acemoglu (prix Nobel d’économie 2024)

Les agents d'IA arrivent, que nous y soyons prêts ou non. Bien qu'il y ait beaucoup d'incertitude quant au moment où les modèles d'IA seront capables d'interagir de manière autonome avec des plateformes numériques, d'autres outils d'IA et même des humains, il ne fait aucun doute que cette évolution sera transformatrice, pour le meilleur ou pour le pire. Malgré tous les commentaires (et le battage médiatique) autour de l'IA agentique, de nombreuses grandes questions restent en suspens, la plus importante étant de savoir quel type d'agent d'IA l'industrie technologique cherche à développer.

L'IA conseillère ou l'IA autonome

Différents modèles auront des implications très différentes. Dans le cadre d'une approche fondée sur « l'IA-conseiller », les agents d'IA proposeront des recommandations calibrées individuellement aux décideurs humains, laissant toujours ces derniers aux commandes. En revanche, avec un modèle « d'IA autonome », les agents prendront le volant pour le compte des humains. Il s'agit là d'une distinction aux implications profondes et étendues.

Chaque jour, les humains prennent des centaines de décisions, dont certaines ont des conséquences majeures sur leur carrière, leurs moyens de subsistance ou leur bonheur. Nombre de ces décisions sont fondées sur des informations imparfaites ou incomplètes, déterminées plutôt par des émotions, des intuitions, des instincts ou des impulsions.

Comme l'a écrit David Hume, « la raison n'est et ne doit être que l'esclave des passions ». Les êtres humains peuvent prendre la plupart des décisions sans raisonnement systématique ou sans prêter attention à toutes les implications, mais comme Hume l'a reconnu avec le mot « doit » de son affirmation, ce n'est pas si mal. C'est ce qui fait de nous des êtres humains. La passion est le reflet d'un but, et elle peut également jouer un rôle clé dans la manière dont nous faisons face à un monde complexe.

Avec des conseillers en IA qui fournissent des informations personnalisées, fiables, contextuelles et utiles, de nombreuses décisions importantes peuvent être améliorées, mais les motivations humaines resteront dominantes. Mais qu'y aurait-il de mal à ce que des IA autonomes prennent des décisions en notre nom ? Ne pourraient-elles pas améliorer encore davantage la prise de décision, gagner du temps et éviter les erreurs ?

L’action et le propre de l’homme

Ce point de vue pose plusieurs problèmes. Tout d'abord, l'action humaine est essentielle à l'apprentissage et à l'épanouissement de l'homme. L'acte même de prendre des décisions et d'envisager des résultats – même si les données et les conseils proviennent d'agents non humains – affirme notre propre sens de l'action et de l'objectif. La plupart des activités humaines ne consistent pas à calculer ou à collecter des données pour décider d'un plan d'action optimal, mais plutôt à découvrir de nouvelles choses : une expérience qui deviendra de plus en plus rare si toutes les décisions sont déléguées à un agent d'IA.

En outre, si l'industrie de la tech s'intéresse principalement aux agents d'IA autonomes, la probabilité d'automatiser davantage d'emplois humains augmentera considérablement. Si l'IA devient principalement un moyen d'accélérer l'automatisation, tout espoir d'une prospérité largement partagée sera anéanti.

Coopération et Compétition

Plus important encore, il existe une différence fondamentale entre les agents d'IA qui agissent pour le compte des humains et les humains qui agissent pour eux-mêmes. De nombreux contextes dans lesquels les humains interagissent comportent à la fois des éléments coopératifs et conflictuels.

Prenons le cas d'une entreprise qui fournit des données à une autre. Si cet intrant a suffisamment de valeur pour l'acheteur, un échange entre les deux entreprises est mutuellement bénéfique (et profite généralement aussi à la société). Mais pour qu'il y ait échange, le prix de l'intrant doit être déterminé par un processus intrinsèquement conflictuel. Plus le prix est élevé, plus le vendeur est avantagé par rapport à l'acheteur. L'issue de ces négociations est souvent déterminée par une combinaison de normes (comme l'équité), d'institutions (comme les contrats qui imposent des coûts en cas de violation) et de forces du marché (comme la possibilité pour le vendeur de vendre à quelqu'un d'autre).

Imaginons que l'acheteur ait la réputation d'être totalement intransigeant, c'est-à-dire qu'il refuse d'accepter autre chose que le prix le plus bas possible. S'il n'y a pas d'autres acheteurs, le vendeur peut être contraint d'accepter l'offre la plus basse. Heureusement, dans nos transactions quotidiennes, des positions aussi intransigeantes sont rares, en partie parce qu'il est payant de ne pas avoir une mauvaise réputation et, surtout, parce que la plupart des êtres humains n'ont ni le courage ni l'ambition d'agir de manière aussi agressive.

Intransigeance Artificielle

Imaginons maintenant que l'acheteur dispose d'un agent d’IA autonome qui ne se soucie pas des subtilités humaines et possède des nerfs d'acier non humains. L'IA peut être entraînée à toujours adopter cette position intransigeante, et la contrepartie n'aura aucun espoir de l'amener à un résultat plus bénéfique pour les deux parties. En revanche, dans un monde où l'IA joue le rôle de conseiller, le modèle pourrait toujours recommander une position intransigeante, mais c'est l'humain qui déciderait en dernier ressort de s'engager ou non dans cette voie.

À court terme, les IA agentiques autonomes peuvent donc donner naissance à un monde plus inégalitaire, dans lequel seules certaines entreprises ou personnes auraient accès à des modèles d'IA très compétents et crédibles. Et même si tout le monde finissait par acquérir les mêmes outils, ce ne serait pas mieux. Notre société tout entière serait soumise à des jeux de « guerre d'usure » dans lesquels les agents d'IA poussent chaque situation conflictuelle au bord de la rupture.

De telles confrontations sont intrinsèquement risquées. Comme dans un jeu de « poule mouillée », lorsque deux voitures accélèrent l'une vers l'autre pour voir laquelle s'écartera la première, il est toujours possible qu'aucune des parties ne cède. Dans ce cas, les deux conducteurs « gagnent » – et les deux périssent.

Une IA qui a été entraînée à gagner à ce jeu ne fera jamais d'embardée. Alors que l'IA pourrait être un bon conseiller pour les humains – en nous fournissant des informations utiles, fiables et pertinentes en temps réel –, un monde d'agents d'IA autonomes est susceptible d'engendrer de nombreux nouveaux problèmes, tout en érodant bon nombre des avantages que la technologie aurait pu offrir.

Daron Acemoglu, prix Nobel d’économie en 2024

Daron Acemoglu, lauréat du prix Nobel d'économie en 2024 et professeur d'économie au MIT, est coauteur (avec Simon Johnson) de Power and Progress : Our Thousand-Year Struggle Over Technology and Prosperity (PublicAffairs, 2023).

Ce texte a initialement été publié le 28 mars 2025 sur Project Syndicate en anglais.

Qant est membre de Project Syndicate.


L’essentiel