Optimisation des Couts LLM : Tokens, Prompt Caching, Model Routing & FinOps IA
Maîtrisez les leviers techniques et organisationnels pour réduire de 50 à 90 % la facture de vos applications LLM en production. Cette formation hands-on de 3 jours couvre le diagnostic des coûts, le prompt caching, la Batch API, le semantic caching, le model routing, la distillation de modèles et la gouvernance FinOps IA.
Cette formation s'adresse aux profils techniques et aux decideurs qui pilotent ou exploitent des applications LLM en production : AI Engineers et LLM Engineers, architectes data, cloud et IA, tech leads et lead developers, DSI et responsables produit avec un budget IA, FinOps practitioners en charge de l'AI spend, CTO de start-up ou de scale-up dont la facture LLM depasse 1 000 EUR par mois. La formation est egalement pertinente pour les profils mixtes technico-financiers (controllers cloud, responsables couts cloud) cherchant a integrer la dimension IA generative dans leur cadre FinOps.
Avoir deja manipule une API LLM (OpenAI, Anthropic, Mistral ou Google Vertex) au moins une fois en lecture/ecriture. Notions de programmation Python suffisantes pour lire et adapter du code (boucles, fonctions, dictionnaires). Idealement, disposer d'un cas d'usage IA en POC ou en production que vous souhaitez optimiser. Connaissance de base d'un editeur de code et d'un terminal. Aucun prerequis en machine learning ni en mathematiques.
Prix par participant
Financement CPF, OPCO ou France Travail
Organisme certifié Qualiopi
Garantie qualité et éligibilité aux financements publics
Formation intra-entreprise
Aucune session ne vous convient ? Cette formation est également disponible en intra-entreprise, sur mesure et dans vos locaux.
Formations similaires
Découvrez d'autres formations dans la catégorie IA & IA Générative
Prêt à vous former ?
Nos conseillers vous accompagnent dans le choix de votre financement et la mise en place de votre formation.