Abandonner notre avenir aux mercenaires de l'IA

Katharina Pistor (Columbia)

Par Katharina Pistor, professeure de droit comparé à la Columbia Law School.

Les décideurs politiques semblent plus qu'heureux de lâcher la bride aux entreprises qui commercialisent l'intelligence artificielle. Une fois de plus, les bénéfices resteront privés, mais les coûts futurs seront inévitablement supportés par le public.

Le mois dernier, le gouverneur de Californie Gavin Newsom a opposé son veto à un projet de loi sur la sécurité de l'intelligence artificielle (lire Qant du 1er octobre) et l'Académie royale des sciences de Suède a décerné le prix Nobel de chimie à David Baker, professeur à l'université de Washington, ainsi qu'à Demis Hassabis et John M. Jumper, employés de DeepMind, filiale de Google, et de son entreprise dérivée Isomorphic Labs. Ces deux événements peuvent sembler avoir peu de choses en commun, mais, pris ensemble, ils suggèrent que l'externalisation de l'avenir de l'humanité à des sociétés privées cherchant à maximiser leurs profits est quelque chose dont il faudrait se réjouir.

Bien que le projet de loi californien ne soit pas sans faille, il représentait le premier effort substantiel pour tenir les développeurs responsables des dommages potentiels que leurs modèles d'IA peuvent causer. En outre, il ne se concentrait pas sur n'importe quel risque, mais sur les « dommages critiques », tels que le développement d'armes de destruction massive ou des dommages d'une valeur d'au moins 500 millions de dollars.

Une première pour une multinationale

L'industrie technologique, dont Google, a exercé un lobbying acharné contre le projet de loi, en avançant un très vieil argument. Comme l'a indiqué le comité éditorial du Financial Times, les nouvelles réglementations pourraient « freiner [...] l'émergence d'une innovation qui pourrait aider à diagnostiquer des maladies, accélérer la recherche scientifique et stimuler la productivité ». Une fois de plus, ces coûts d'opportunité sont jugés plus néfastes que les dommages que l'IA pourrait causer à la capacité des hommes et des femmes à contrôler leur propre destin, voire à vivre en paix dans leur société.

C'est la première fois que le prix Nobel, dans le domaine des sciences naturelles, est décerné à des employés d'une multinationale. Tous les lauréats précédents étaient ou avaient été des professeurs d'université ou des chercheurs dans des instituts de recherche publics, qui avaient tous publié leurs résultats dans des revues à comité de lecture et les avaient mis à la disposition du monde entier.

Que l'Académie suédoise l'ait voulu ou non, sa décision d'inclure les chercheurs de Google contribue à légitimer la privatisation de la science, qui ne fait plus partie des biens communs de l'humanité. Comme tant d'autres ressources avant elle, la science de l'IA est enfermée dans un jardin clos accessible uniquement à ceux qui peuvent payer le droit d'entrée.

Une fausse gratuité

Il est vrai que le modèle d'IA AlphaFold2, qui a permis à Hassabis et Jumper de remporter le prix, ainsi que son code source, ont été mis à la disposition du public. Selon AlphaFold.com, « Google DeepMind et l'Institut européen de bioinformatique de l'EMBL (EMBL-EBI) se sont associés pour créer AlphaFold DB afin de mettre ces prédictions gratuitement à la disposition de la communauté scientifique ». Cependant, DeepMind détient plusieurs brevets sur AlphaFold. Selon la logique des droits de propriété, c'est l'entreprise, et non le public, qui aura toujours le dernier mot sur l'utilisation de la technologie. Le site web d'AlphaFold est un « .com », ce qui est fondamentalement différent de l'URL « .gov » du Human Genome Project, par exemple.

Dans le monde des technologies de l'information, « gratuitement » n'est jamais sans coût. Les paiements sont effectués en données et non en dollars. Les données qui permettent à AlphaFold de prédire la structure tridimensionnelle d'une protéine proviennent du domaine public. Le partenaire de DeepMind dans le développement d'AlphaFold est une organisation de recherche intergouvernementale financée par plus de 20 États européens. Selon John Jumper, « les données publiques ont été essentielles au développement d'AlphaFold ». Sans les données compilées et organisées par les scientifiques avec l'argent du contribuable, il n'y aurait pas d'AlphaFold.

Ne pas délaisser le secteur public

Malgré la prescience des fonctionnaires qui ont créé cette énorme base de données, les gouvernements sont régulièrement critiqués pour leur manque de connaissances, de compétences, de ressources et de prévoyance, pour promouvoir les innovations et faire progresser la science et l'économie. On nous dit constamment que seul le secteur privé, avec ses incitations monétaires irrésistibles, peut faire ce qu'il faut pour propulser le monde vers l'avant.

En réalité, le secteur privé profite régulièrement des travaux réalisés par des scientifiques soutenus par des fonds publics ou employés par des instituts de recherche publics. Le premier satellite a été lancé par le gouvernement américain, pas par Elon Musk ; l'armée américaine a développé Internet avant qu'il ne soit commercialisé ; les sociétés pharmaceutiques investissent rarement dans la recherche fondamentale. Pourquoi s'en préoccuper alors qu'il suffit d'attendre que les scientifiques financés par l'Institut national de la santé des États-Unis ou d'autres organismes similaires fassent progresser un domaine au point que des investissements rentables puissent être réalisés ?

Le rendement avant tout

Telle est la logique des entreprises qui recherchent le profit. Leur objectif est le rendement financier et non le progrès humain. Une fois dans le jeu, elles cherchent à monopoliser le savoir scientifique en obtenant des brevets ou en cachant leurs découvertes derrière les barrières fournies par la loi sur le secret commercial. Sans l'aide de l'État, ils ne disposeraient ni de la science fondamentale, ni de protections juridiques pour les monopoles qui leur rapportent gros – qu'ils brandissent ensuite comme preuve de leur supériorité sur l'État.

Il n'est pas difficile de comprendre pourquoi les entreprises privées aiment ce jeu. Le mystère réside dans le fait que les gouvernements jouent volontiers le jeu de l'industrie, en cédant des années de recherche financée par des fonds publics sans garantir que le public ait son mot à dire sur l'utilisation qui en est faite. La législation californienne aurait exigé que les modèles d'IA comprennent une capacité d'arrêt complet en cas de problème, mais cette disposition a été supprimée avec le reste du projet de loi.

L'argument selon lequel, si nous n'en savons pas assez sur les dommages futurs, nous devrions nous abstenir d'intervenir sur les marchés « privés », qui fonctionnent toujours mieux sans « ingérence » de l'État, n'a rien de nouveau. Les compagnies pétrolières et gazières se sont appuyées sur cet argument pour nier le risque de changement climatique et leur contribution à celui-ci, alors même que leurs propres recherches leur indiquaient le contraire.

Nous y revoilà. Nous sommes censés placer notre avenir entre les mains de sociétés privées dont le seul objectif est de maximiser la valeur pour leurs actionnaires. Qu'est-ce qui pourrait bien aller de travers ?

Pour en savoir plus :

Katharina Pistor est l'auteure de The Code of Capital : How the Law Creates Wealth and Inequality • Source : Editions du Seuil

Ce texte a initialement été publié en anglais le 17 octobre sur Project Syndicate, traduction : Qant.

L’essentiel