François Xavier Petit : « Il y a de la place pour tout le monde dans l’aventure de l’intelligence artificielle »

Crédit : Adèle Darcet pour Matrice

Agrégé d'histoire et anthropologue, François-Xavier Petit a créé en 2016 Matrice, un institut d'innovation technologique et sociale, qui est notamment partenaire de LaborIA, un laboratoire commun de l’Inria et du ministère du Travail et de l’Emploi, pour la compréhension des effets sociaux de l’IA, notamment sur le travail. Sur ce sujet comme sur d’autres, Matrice cherche de nouvelles articulations entre les humains et les machines, en mobilisant sciences humaines, arts, technologies et entrepreneuriat.

Qant. Comment l’IA impacte-t-elle l’acte d’apprentissage ?

François Xavier Petit. Il faut d’abord dire qu’on n’est pas encore sûr d’avoir les bonnes réponses à ces questions. Nous manquons d’études et de cas d’usage pour répondre avec exactitude. Mais il y a déjà éléments qui semblent se détacher. D’abord, une capacité d’individualisation plus forte des apprentissages. On parle aujourd’hui beaucoup de groupes de niveau, mais l’IA peut faire voler cette notion en éclats, en individualisant complètement les exercices. Cette individualisation mérite de s’inscrire dans le cadre d’un « groupe classe » hétérogène. Il semble en effet qu’il faut, pour pouvoir individualiser les apprentissages, avoir d’abord eu accès à un format collectif qui permet de transmettre cet apprentissage. L’IA s'attache plutôt à la correction et à la répétition qu'à la transmission réelle du contenu.

Qant. En somme, rien ne remplace le cours magistral ?

François Xavier Petit. Le cours magistral a tendance à se réduire et à se transformer. Mais un temps collectif reste plus que nécessaire : l’explication ne peut se passer de socialisation. Si on réfléchit uniquement à la performance du système d’intelligence artificielle face à l’individu pour pouvoir augmenter ses compétences, cela peut fonctionner. Mais l’enjeu de l’école et de l’enseignement, c’est aussi la socialisation qui va avec le savoir. Cette dernière ne peut pas disparaître : dans tous les cas, des formats de transmission collective assurée par un humain continuent à être très performants et très compétitifs. L’enjeu n’est pas l’un ou l’autre mais l’articulation des deux qui crée des situations « capacitantes ».

La question que pose l'intelligence artificielle est de se demander quelles compétences l’éducation veut développer. Je veux dire par là qu’il n’y a pas de bon ou de mauvais recours à l’IA a priori. Par exemple, si l'IA est utilisé dans une logique critique, alors elle est peut-être très pertinente. Si elle sert à éviter aux gens d'apprendre, alors son usage est dangereux. Cherchons les manières de l’utiliser qui élève l’esprit et non le remplace. Par exemple, on peut utiliser l’intelligence artificielle pour critiquer l’intelligence artificielle. On sait aujourd’hui que, quand un professeur donne un exercice à faire à la maison, ChatGPT passe souvent par là. Tout le travail pourrait être de se demander comment, à partir du premier jet transmis par ChatGPT, l'apprenant peut faire fonctionner sa raison critique et son apprentissage, potentiellement avec d'autres LLMs. En vérité tout dépend de ce que l’on fait de l’IA. La règle pourrait être la suivante : automatiser ce qui peut l’être pour désautomatiser les humains et enrichir leur raison critique.

Qant. Comptez-vous passer de la théorie à la pratique ?

François Xavier Petit. Oui, bien sûr. Nous préparons actuellement, en commun avec une grande université parisienne, un programme de recherche et de formation en ce sens. Nous envisageons d’utiliser l’IA pour les corrections mais, surtout, nous souhaitons lui donner le double rôle d'individualisation de l'apprentissage et de participation à la construction d'une culture critique. Dans la formation à l'IA et par l'IA, la question de la compréhension des phénomènes technique (l’inverse de la boîte noire) et des effets sociaux est absolument décisive. Ce qui boucle la boucle et conduit à réintégrer l’enseignement de l'histoire, de la sociologie, de l'anthropologie.

Qant. Comment est né le projet Matrice ?

François Xavier Petit. Matrice se définit comme un institut d’innovation technologique et sociale, dans l’articulation entre les évolutions que connaissent nos environnements techniques et la manière dont elles agissent sur nos environnements sociaux, et réciproquement. L'idée est de ne surtout pas les séparer, même si cet objet se décline en modes d'action différents. Un premier axe de notre action se tourne vers l'entreprenariat, avec une logique d'incubateur en interne, qui peut concerner aussi bien des artisans d'arts que des jeunes ruraux en situation de décrochage, des startups ou des chercheurs en voie de transfert de technologie. La deuxième approche est celle d'un laboratoire d'innovation, qui vient traiter une problématique à la confluence des technologies et des sciences humaines. Enfin, nous mobilisons beaucoup la littérature, la création contemporaine et la prospective, afin de voir plus loin. Ainsi, par exemple, nous agissons de la réorganisation des urgences d'un hôpital, à la création d’une stratégie économique et sociale pour un grand établissement de l’audiovisuel, très impacté par le déploiement de l'intelligence artificielle, etc.

Qant. Une sorte de laboratoire d'excellence inclusif ?

François Xavier Petit. Notre enjeu est de fabriquer une communauté plurielle où chacun se nourrit des expériences et des enjeux des uns et des autres, où des rencontres permettent de découvrir les univers et les enjeux de mondes différents pour changer la donne. Nous voulons éviter l’enfermement : quand on est dans un projet, dans un secteur précis, on a tendance à être sourd au monde qui vit autour. Nous voulons lutter contre cette non-mixité, cette tendance à "clusteriser" les gens. Cette conviction s’appuie sur une analyse politique : il faut une politique des technologies. Elles sont loin d’être neutres. Gouverner les algorithmes, comprendre les IA et les entraîner pour de bonnes raisons, saisir le travail sur l’attention, les enfermements possibles dans des bulles, la suite immense d’effets sociaux comme l’ensemble des progrès que permet le numérique est notre enjeu. Plus qu’il n’y paraît, il est de la responsabilité des acteurs numériques de prendre soin de la société et de lutter contre la « désaffiliation » que décrit si bien Robert Castel, ce sentiment d’être pieds et poings liés face au « système » représenté par l’algorithme, notamment. Ce qui est tout le problème de Parcours Sup…

Qant. A court terme, n’est-il pas plus facile d’avoir un impact sur les élites que sur les problèmes sociaux ?

François Xavier Petit. L'un ne se substitue pas à l'autre ; les deux s'enrichissent mutuellement. Par exemple, nous travaillons aujourd'hui avec des documentalistes de l'INA sur la façon dont l'intelligence artificielle impacte leurs métiers. Et dans le même temps, nous travaillons avec le Comex de l'INA sur la stratégie globale. Tout l’enjeu est de les aligner.

On touche là au cœur de l'enjeu : si l'intelligence artificielle est un sujet d'élite qui veulent toujours plus accélérer, ça ne peut pas fonctionner. Il faut être capable d'emmener tout le monde, de montrer que dans l'aventure de l'intelligence artificielle il y a une place pour tout le monde, y compris pour les plus bas niveaux de qualification. Cela suppose une chose : fabriquer les nouvelles synthèses socio-productives qui vont permettre d'articuler autrement les humains et les machines dans un format qui convient à tous.

Qant. Et concrètement ?

François Xavier Petit. Prenons le cas de la description de fonds documentaires. Aujourd'hui, il est très pertinent de demander à l'IA de le faire. Mais le rôle du documentaliste va au-delà et se déplace. Non plus décrire mais aussi interroger, naviguer, régler l’IA. « prompter », pourrait-on dire. Son rôle glisse vers celui d’un "prompt-documentaliste", en capacité d'interroger mieux encore ces fonds documentaires : un travail humain, sur une base de données enrichie par l'IA. Une articulation qui peut réussir ainsi.

Qant. On voit cela souvent, quand on parle d’IA. Il s’agit de faire monter la base d’un niveau…

François Xavier Petit. Oui, et surtout de l’aider se "désautomatiser" elle-même, pour lui permettre de faire des tâches plus proches des clients, des usagers, de l'expérience, pour répondre à un besoin. L'enjeu est de bien rendre un service qui était finalement mal rendu en raison de stratégies d'automatisation pas toujours réussies. Partout où nous initions à l'intelligence artificielle, le fantasme des machines qui vont remplacer les humains se dégonfle assez rapidement.

Qant. Les résultats de l’enquête systématique du LaborIA vont-ils en ce sens ?

François Xavier Petit. Oui. Il y a eu plusieurs enseignements forts. Par exemple, quand on pose la question aux salariés de savoir si l’intelligence artificielle est pour eux une menace pour leur emploi et pour leur avenir, on a un écart d'environ 40 points entre ceux qui n'ont jamais travaillé avec l'IA, et ceux qui l'ont déjà utilisé. Ceux qui ont déjà travaillé avec l'IA ont compris qu'elle pouvait être une menace, mais que compte tenu de ce qu'elle sait faire et ce qu'elle ne sait pas faire, il y a encore beaucoup de place pour les humains. En revanche, je décris là une photographie à l’instant T. Un an plus tard, la question du sens au travail se pose massivement chez ceux qui manient des IA ayant absorbé une partie des tâches qu’ils réalisaient avant. Le vrai enjeu est là.

Qant. Quels sont les résultats concrets que vous avez eu avec votre partenariat avec le LaborIA ?

François Xavier Petit. C'est un travail d'analyse sociologique. Nous avons notamment établi un dispositif qui permet de décrire le vécu des salariés par rapport à l'IA. Les grands enseignements sont autour d'une manière de décrire le travail, dimension aliénante ou capacitante, question de la place de l'expertise : est-il encore important d'être expert quand on une solution d'IA peut faire en une fraction de seconde ce qu'on a mis 25 ans à apprendre ? Se posent des sujets de légitimité, de conflits de rationalité. Comment savoir vérifier les résultats de la machine ? Comment mon expertise se déplace vers la construction de l'algorithme ? Comment le comprendre, l’interpréter, l’éduquer ? Le défi pour nous n'est pas seulement de s'interroger sur l'emploi, mais aussi (et surtout) sur le travail, pour positionner correctement les humains et les machines.

L’essentiel