- Une étude publiée dans Nature met en lumière les limites du concept d’« intelligence artificielle ouverte », soulignant qu’il concentre souvent le pouvoir dans le secteur de l’IA plutôt que de favoriser la concurrence et la transparence. Le chercheur David Widder, de l’université Cornell, affirme que cette rhétorique donne une fausse impression de sécurité au public et aux décideurs.
- L’analyse compare l’IA ouverte aux logiciels libres, illustrant comment des entreprises comme IBM, Google ou Meta ont utilisé ces concepts pour renforcer leur contrôle. Par exemple, le modèle Llama-3 de Meta, décrit comme ouvert, impose en réalité des restrictions qui le rapprochent davantage d’un système fermé.
- « OpenAI n'a pas publié la taille de GPT-4, le rapport technique d'Anthropic ne discute pas de la taille des données d'entraînement de Claude 3 et Mistral AI a refusé de publier ne serait-ce que la taille des données d'entraînement de son modèle en libre accès, invoquant la “nature hautement compétitive du domaine” », observent les chercheurs.
- Bien que certains projets comme Pythia d’EleutherAI respectent les principes d’ouverture, l’étude montre que les coûts élevés en données, en temps de développement et en puissance de calcul limitent l’accès à la création de grands modèles d’IA.
- À SURVEILLER. Les implications pour les politiques publiques, qui pourraient nécessiter des mesures complémentaires comme des lois antitrust et une meilleure protection des données pour limiter la domination des géants technologiques.
Les fausses promesses de l’IA open source
Des chercheurs américains et australiens dénoncent des modèles qui ne sont pas aussi ouverts qu’ils le prétendent.