Рет қаралды 10,530
Dans cette vidéo, nous verrons pourquoi le déploiement de grands modèles de langage (LLM) open source peut être un atout majeur pour vos projets et comment mettre en production ces modèles.
Nous détaillerons les caractéristiques techniques qu'une machine doit avoir pour supporter de tels modèles, avec un focus particulier sur les spécifications nécessaires pour déployer Llama 3.3 70B.
Nous comparerons également les coûts des machines entre AWS et Runpod. Puis nous détaillerons l'utilisation de la librairie vLLM , librairie permettant de mettre en production Llama 3.3 70B (ou tout autre LLM) sur une machine louée sur le cloud.
L'approche de mise en production décrite dans cette vidéo étant générique et flexible, nous verrons ensuite comment mettre en production des modèles non censurés.