L’intelligence artificielle refaçonnant les économies et les sociétés, il est essentiel que les dirigeants d’entreprise songent à la manière dont ils entendent collaborer avec les dirigeants politiques pour régir le développement de cette technologie. Au sein de l’Union européenne, la loi récemment adoptée en matière d’IA impose aux entreprises de prendre certaines mesures de précaution en fonction des risques associés aux différents cas d’utilisation. Le texte considère ainsi comme « inacceptable » le risque lié à l’utilisation de l’IA à des fins de « notation sociale », alors que les filtres de courrier électronique basés sur l’IA sont décrits comme présentant seulement un risque « minime ».
Entendre la voix des entreprises
La réussite de cette approche nécessitera que les entreprises, qui jouissent d’une expertise technique et qui formulent des points de vue pratiques, établissent un équilibre entre la promotion de l’innovation et la réponse aux préoccupations sociétales. Déléguer entièrement la réglementation aux dirigeants politiques ainsi qu’à une poignée d’entreprises puissantes, ce serait prendre le risque de créer des règles qui serviront uniquement les intérêts des grandes sociétés technologiques et qui relégueront au second plan les points de vue d’autres acteurs de l’industrie.
Dans le cas de la loi européenne sur l’IA, l’absence de participation des entreprises au processus de rédaction aboutit d’ores et déjà à une absence de réponse à certaines questions de mise en œuvre pourtant essentielles. Le texte pourrait par exemple être interprété comme réglementant les techniques conventionnelles de statistique telles que la régression linéaire, qui est couramment utilisée dans le secteur financier. Dans l’affirmative, cela viendrait ajouter une charge de conformité inutile. De même, la loi demeure ambiguë sur la question de savoir quels outils standards, utilisés dans le développement de médicaments, entrent dans son champ d’application ; or, une telle incertitude pourrait ralentir le développement et faire augmenter les coûts au sein d’une industrie déjà fortement réglementée.
Des textes amenés à évoluer
Nous pouvons éviter ces problèmes, à condition que les PDG de ces secteurs se fassent davantage entendre. Bien que ce texte de loi sur l’IA soit finalisé, les questions d’interprétation, de mise en œuvre et d’exécution évoluent encore. La liste précise des systèmes d’IA à haut risque – catégorie la plus importante pour des secteurs allant des soins de santé jusqu’au domaine bancaire – est susceptible de changer au fil du temps, en fonction des remontées d’informations de l’industrie.
Par ailleurs, un certain nombre de règles et de cadres étant en cours d’élaboration aux États-Unis et dans d’autres pays, ainsi qu’au travers de collaborations internationales, il est nécessaire que les dirigeants d’entreprise élargissent leur champ d’action. Ils peuvent en effet apporter de précieuses contributions à ce qui devient aujourd’hui rapidement un paysage réglementaire complexe et multi-juridictionnel.
Une collaboration public-privé
La collaboration entre le secteur public et le secteur privé a toujours joué un rôle essentiel dans la gestion des technologies transformatrices. Durant la pandémie de Covid-19, elle a permis d’établir un juste équilibre entre innovation et sécurité dans la mise au point accélérée d’un vaccin. De même, l’implication précoce de l’industrie de l’énergie nucléaire auprès des régulateurs a permis la création de règles concernant les petits réacteurs modulaires, qui ont réduit les coûts, harmonisé l’octroi de licences, et permis aux entreprises de s’étendre sur de nouveaux marchés, d’attirer des investissements ainsi que d’améliorer leur position concurrentielle – un changement non négligeable par rapport aux lourdeurs réglementaires qui pesaient traditionnellement sur le secteur.
Dans ces deux cas, les cadres réglementaires ont bénéficié des contributions du monde réel. Or, dans le cas de l’IA, de trop nombreuses entreprises restent sur la touche, ce qui accroît le risque de règles mal conçues, susceptibles d’entraver le progrès. Cette absence d’implication des entreprises ne résulte pourtant pas d’un manque d’opportunités. Seulement 7 % des entreprises invitées à participer au processus de rédaction du code de bonnes pratiques de l’UE en matière d’IA à des fins générales se sont présentées, laissant ainsi les ONG et les universitaires dominer les discussions. Dans le même temps, dans une récente enquête menée par BCG, 72 % des dirigeants affirment que leur entreprise n’est pas totalement préparée aux réglementations en matière d’IA.
Agir en secteur
Si vous êtes PDG, que devriez-vous faire ? La réglementation et le déploiement de l’IA étant des processus principalement sectoriels, la première étape doit consister pour vous à vous aligner sur votre secteur, afin que tous les acteurs de celui-ci s’expriment à l’unisson. C’est le meilleur moyen de faire entendre votre voix aux côtés de celle des géants technologiques, qui dépensent chaque année plus de 100 millions de dollars en lobbying auprès des dirigeants politiques à Bruxelles (Meta en tête).
La réglementation de l’IA ne doit toutefois pas seulement consister à ériger des garde-fous et à fixer des limites. Au-delà de la création de coalitions industrielles et de l’adoption de normes communes en matière d’IA, les dirigeants d’entreprise doivent contribuer à l’ensemble des réglementations numériques susceptibles de concerner leur secteur d’activité.
Collaborer avec les décideurs politiques
Dans le cadre plus large de sa stratégie numérique, la Commission européenne met en œuvre quatre autres lois majeures, et introduit le concept « d’espaces de données ». Ces espaces sont censés permettre aux données de circuler en toute sécurité au sein de l’UE et entre les secteurs, tout en respectant la législation européenne. Il incombe désormais à l’industrie de bâtir ces canaux (avec l’appui de financements publics). Les dirigeants qui alignent leur stratégie d’entreprise sur ce régime émergent seront les mieux positionnés pour capitaliser sur les opportunités spécifiques aux secteurs.
Il est également nécessaire que les dirigeants d’entreprise identifient et établissent des relations avec les principaux décideurs politiques et autres parties prenantes influentes dans leur secteur respectif, à tous les niveaux de gouvernance – Comité européen de la protection des données et organismes nationaux de réglementation de l’IA en Europe, Commission fédérale du commerce et département de la Justice aux États-Unis. Dans chaque cas, il s’agit de privilégier le long terme en bâtissant des relations stables, fondées sur l’expertise et la confiance, pas sur des échanges transactionnels.
Force de proposition
Pour soutenir ces efforts, il est nécessaire que les dirigeants d’entreprise disposent d’une équipe spécialisée qui se consacre exclusivement à la participation aux réglementations. Le simple rejet des propositions de réglementation n’est pas une option, et la détermination de compromis justes est par conséquent essentielle. Les dirigeants d’entreprise doivent être prêts à répondre aux interrogations par des solutions alternatives claires et applicables, formulées dans le langage des décideurs politiques, pas dans le jargon du secteur. Les banques pourraient par exemple proposer que les évaluations de solvabilité soient exemptées de la qualification « haut risque » énoncée par la loi sur l’IA, en faisant valoir que ces évaluations établissent un équilibre approprié entre innovation et responsabilité, et qu’elles pourraient réduire les coûts tout en rendant les financements plus accessibles pour les consommateurs.
La réglementation de l’IA n’est pas un simple exercice de conformité. Les dirigeants du secteur ont aujourd’hui l’opportunité de façonner des règles qui concernent directement l’innovation et l’activité. Si elles continuent de se tenir à l’écart, les entreprises risquent de laisser les réglementations évoluer sans leur contribution, ce qui aboutirait à des cadres déconnectés des réalités opérationnelles. Nous ne voulons pas d’un environnement dans lequel les régulateurs aient réagi de manière excessive à des risques théoriques au détriment d’avancées pratiques.
De la même manière que la révolution industrielle a nécessité de nouvelles règles pour régir des technologies transformatrices, les progrès de l’IA imposent la mise en place de garde-fous. Les dirigeants d’entreprise ont toujours eu à apporter de précieuses contributions au cours de telles périodes, et la nôtre ne doit pas y faire exception.
Pour en savoir plus :
Sylvain Duranton est responsable mondial du BCG X.
Kirsten Rulf est partenaire et directrice associée au Boston Consulting Group.
Ce texte a initialement été publié sur Project Syndicate.
Qant est membre de Project Syndicate.