Notamment dans les domaines du codage, ses performances ne surpassent pas celles de GPT-4, rapporte The Information.
Les améliorations par rapport à GPT-4 seraient en général bien moins significatives que celles observées lors de la transition de GPT-3 à GPT-4, et bien en-deçà des 100 fois indiqués précédemment. Ce ralentissement serait lié à une pénurie de données de haute qualité pour l'entraînement du modèle, essentiellement nourri en données de synthèse, générées par GPT-4.
Le lancement, initialement prévu avant la fin de l’année, serait reporté au début de 2025, environ deux ans après GPT-4.
À SURVEILLER : Gary Marcus. Cette nouvelle indiscrétion semble donner raison à la thèse du chercheur de NYU Gary Marcus, qui soutient que les LLM ont atteint un plafond de performances avec GPT-4, sur lequel s’alignent tous les grands modèles : Gemini 1.5, Claude 3 Opus, Llama 3 400 B. Cette théorie sera mise à l’épreuve par les lancements, sans doute d’ici la fin de l’année, de Claude 3.5 Opus et Gemini 2. Et, un jour, de GPT-5.