Les LFM sont conçus pour minimiser l'usage de la mémoire tout en offrant une grande puissance de calcul. Trois modèles ont été dévoilés, dont le LFM-1B (1,3 milliard de paramètres), conçu pour des environnements à ressources limitées, et le LFM-40B (40,3 milliards de paramètres), dédié aux déploiements complexes sur le cloud.
À SURVEILLER. Liquid AI explique la supériorité de ses modèles Liquid Foundation (LFM) par une nouvelle architecture de réseaux de neurones « liquides », grâce à laquelle les LFM peuvent gérer de grandes quantités de données séquentielles et s'ajuster en temps réel, sans la surcharge mémoire des modèles traditionnels, « transformers ». Si elle fait ses preuves, cela pourra contribuer à calmer le dévorant appétit énergétique de l’IA générative.