Le débat sur la sécurité de l’IA se trompe de cible

Daron Acemoglu

Par Daron Acemoglu, professeur d’économie au MIT

L'anxiété actuelle concernant les risques posés par l'intelligence artificielle reflète une tendance à anthropomorphiser l'IA et nous amène à nous concentrer sur les mauvaises questions. Toute technologie pouvant être utilisée à bon ou à mauvais escient, ce qui importe en fin de compte, c'est de savoir qui la contrôle, quels sont ses objectifs et à quel type de réglementation elle est soumise.

Une énorme industrie a vu le jour ces dernières années, la Chine, les États-Unis, le Royaume-Uni et l'Union européenne ayant fait de la sécurité de l'intelligence artificielle une priorité absolue. Il est évident que toute technologie – des voitures aux produits pharmaceutiques en passant par les machines-outils et les tondeuses à gazon – doit être conçue de la manière la plus sûre possible (on aurait aimé que les médias sociaux fassent l'objet d'un examen plus approfondi à leurs débuts).

Le spectre éternel de l'AGI

Il ne suffit pas de soulever des questions de sécurité. Dans le cas de l'IA, le débat se concentre beaucoup trop sur la « sécurité contre les risques catastrophiques dus à l'AGI (Intelligence Générale Artificielle) », c'est-à-dire une superintelligence capable de surpasser tous les humains dans la plupart des tâches cognitives. L'enjeu est la question de l'alignement : les modèles d'IA produisent-ils des résultats qui correspondent aux objectifs et aux valeurs de leurs utilisateurs et de leurs concepteurs - un sujet qui donne lieu à divers scénarios de science-fiction dans lesquels une IA superintelligente émerge et détruit l'humanité. Le best-seller de Brian Christian, The Alignment Problem, est principalement axé sur l'AGI, et les mêmes préoccupations ont conduit Anthropic, l'une des principales entreprises dans ce domaine, à construire des modèles dotés de leurs propres « constitutions » consacrant des valeurs et des principes éthiques.

Mais il y a au moins deux raisons pour lesquelles ces approches peuvent être erronées. Premièrement, le débat actuel sur la sécurité ne se contente pas d'anthropomorphiser (inutilement) l'IA ; il nous amène également à nous concentrer sur les mauvaises cibles. Étant donné que toute technologie peut être utilisée à bon ou à mauvais escient, ce qui importe en fin de compte, c'est de savoir qui la contrôle, quels sont ses objectifs et à quel type de réglementation elle est soumise.

Une IA déjà dangereuse

Aucune recherche en matière de sécurité n'aurait empêché qu'une voiture soit utilisée comme une arme lors du rassemblement des suprémacistes blancs à Charlottesville, en Virginie, en 2017. Si nous acceptons la prémisse selon laquelle les systèmes d'IA ont leur propre personnalité, nous pourrions en conclure que notre seule option est de veiller à ce qu'ils aient les bonnes valeurs et les bonnes constitutions dans l'abstrait. Mais la prémisse est fausse, et la solution proposée serait loin d'être à la hauteur.

Certes, le contre-argument est que si l'AGI était un jour réalisée, il importerait vraiment que le système soit « aligné » sur les objectifs humains, car il n'y aurait plus de garde-fous pour contenir la ruse d'une superintelligence. Mais cette affirmation nous amène au deuxième problème que pose une grande partie du débat sur la sécurité de l'IA. Même si nous sommes sur la voie de l'AGI (ce qui semble hautement improbable), le danger le plus immédiat reste l'utilisation abusive par l'homme d'une IA non superintelligente.

Qui sera à la tête de l'AGI ?

Supposons qu'il y ait un moment (T) dans le futur (disons 2040) où l'AGI sera inventée, et que jusqu'à ce moment, les systèmes d'IA qui ne sont pas dotés de l'AGI ne seront toujours pas autonomes (s'ils devaient devenir autonomes avant l'AGI, disons que ce jour est T). Considérons maintenant la situation un an avant T. À ce moment-là, les systèmes d'IA seront devenus très performants (parce qu'ils seront sur le point d'atteindre la superintelligence). La question qu’il faut se poser est la suivante : « Qui sera aux commandes en ce moment ? Qui contrôle la situation à l'heure actuelle ? ».

La réponse est évidente : les agents humains contrôlent l’IA, soit individuellement, soit collectivement sous la forme d'un gouvernement, d'un consortium ou d'une entreprise. Pour simplifier la discussion, j'appellerai les agents humains en charge de l'IA à ce stade la société X, même s’il pourrait également s'agir de plusieurs sociétés, ce qui pourrait être encore pire, comme nous le verrons. Cette société serait en mesure d'utiliser ses capacités d'IA à toutes les fins qu'elle souhaite. Si elle veut détruire la démocratie et réduire les gens en esclavage, elle peut le faire. La menace que tant de commentateurs imputent à l'AGI aurait déjà existé avant l'AGI.

Une entreprise toute puissante

En fait, la situation serait probablement pire que cette description, car la société X pourrait aboutir à un résultat similaire même si son intention n'était pas de détruire la démocratie. Si ses propres objectifs ne sont pas totalement alignés sur la démocratie (ce qui est inévitable), la démocratie pourrait en souffrir comme conséquence involontaire (comme cela a été le cas avec les médias sociaux).

Par exemple, des inégalités dépassant un certain seuil peuvent compromettre le bon fonctionnement de la démocratie, mais cela n'empêcherait pas l'entreprise X de faire tout ce qu'elle peut pour s'enrichir ou enrichir ses actionnaires. Les garde-fous intégrés dans ses modèles d'IA pour empêcher toute utilisation malveillante n'auraient pas d'importance, car l'entreprise X pourrait toujours utiliser sa technologie comme elle l'entend.

La nécessaire présence des institutions

De même, si deux entreprises, l'entreprise X et l'entreprise Y, contrôlent des modèles d'IA très performants, l'une ou l'autre, ou les deux, peuvent toujours poursuivre des objectifs préjudiciables à la cohésion sociale, à la démocratie et à la liberté humaine. L'argument selon lequel elles s'entraveraient mutuellement n'est pas convaincant. Au contraire, leur concurrence pourrait les rendre encore plus impitoyables.

Ainsi, même si nous obtenons ce que la plupart des chercheurs en sécurité de l'IA souhaitent – un alignement et des contraintes appropriés sur l'AGI – nous ne serons pas en sécurité. Les implications de cette conclusion devraient être évidentes : nous avons besoin d'institutions beaucoup plus fortes pour contrôler les entreprises technologiques, et de formes d'action démocratique et civique beaucoup plus fortes pour que les gouvernements qui contrôlent l'IA soient tenus de rendre des comptes. Ce défi est tout à fait distinct de la question des biais dans les modèles d'IA ou de leur alignement sur les objectifs humains.

Pourquoi, alors, sommes-nous si obnubilés par le comportement potentiel de l'IA anthropomorphisée ? Il s'agit en partie d'un battage médiatique, qui permet à l'industrie technologique d'attirer davantage de talents et d'investissements. Plus tout le monde parle de la manière dont une IA superintelligente pourrait agir, plus le public commencera à penser que l'AGI est imminente. Les investisseurs individuels et institutionnels investiront dans le prochain grand projet, et les dirigeants du secteur technologique qui ont grandi avec les représentations de science-fiction de l'IA superintelligente obtiendront un autre passe-droit. Nous devrions commencer à prêter plus d'attention aux risques les plus immédiats.

Daron Acemoglu, professeur d'économie au MIT, est coauteur (avec James A. Robinson) de Why Nations Fail : The Origins of Power, Prosperity and Poverty (Profile, 2019) et coauteur (avec Simon Johnson) de Power and Progress : Our Thousand-Year Struggle Over Technology and Prosperity (PublicAffairs, 2023).

Pour en savoir plus :

L’essentiel