La Guerre des SLMs (Small Language Models) & Edge AI
La course au gigantisme (plus de paramètres, plus de GPU, plus de bras et de chocolat ...) ralentit au profit de modèles ultra-optimisés qui tournent à l'edge ou sur de petits devices
Les prochains avantages concurrentiels des technologies LLM ne seront pas quelle AGI couvre le plus de problèmes correctement, mais de la rapidité et de la frugalité (donc moins chere) avec le bénéfice de résoudre le cauchemar de la confidentialité des données (GDPR/RGPD) : si la donnée ne quitte pas le device, le risque de fuite s'effondre.
Les développements des applications construites sur de la GenAI devront s'appuyer sur de petits modèles (éventuellement spécialisés) et multipliples au travers d'écosystèmes agentiques : la réduction des coûts (et des "coups" de régulation) passe par l'éxecution locale et à l'edge.
