
Claude sur Google Cloud Vertex AI — Intégration Cloud Google

Module 1 — Pourquoi Vertex AI : positionnement et avantages
- Trois voies d'accès à Claude : API directe Anthropic, Amazon Bedrock, Google Vertex AI
- Avantages Vertex AI : facturation GCP consolidée, conformité FedRAMP High/SOC, crédits GCP utilisables
- Arbre de décision : quand choisir Vertex AI vs API directe vs Bedrock selon les contraintes projet
- Modèles disponibles : Opus 4.6, Sonnet 4.6, Haiku 4.5 avec Vertex Model IDs et dates de retrait
- Fenêtres de contexte : 1M tokens (Opus/Sonnet 4.6) vs 200K tokens (autres modèles), limite payload 30 Mo
- Exercice : Comparer les 3 plateformes sur 3 cas d'usage entreprise et choisir la plus adaptée
Module 2 — Setup et première requête Vertex AI
- Prérequis : projet GCP avec facturation activée, gcloud CLI installé, Vertex AI API activée
- Accès aux modèles Claude via le Vertex AI Model Garden : demande d'accès et validation
- Authentification : gcloud auth application-default login, chaîne de credentials google-auth-library
- Service Accounts : création, rôles IAM Vertex AI, clé JSON pour les environnements serveur
- Installation des SDKs : pip install anthropic[vertex] (Python), npm install @anthropic-ai/vertex-sdk (TS)
- Première requête : AnthropicVertex avec project_id et region, format de réponse
- Différences clés avec l'API directe : model dans l'URL (pas le body), anthropic_version vertex-2023-10-16 dans le body
- Atelier pratique : Configurer l'environnement GCP, activer Vertex AI et exécuter ses premières requêtes via SDK et curl
Module 3 — Les 3 types d'endpoints Vertex AI
- Endpoint global (recommandé) : region="global", routage dynamique, pas de surcharge, pay-as-you-go uniquement
- Endpoint multi-region : region="us" ou "eu", résidence données continentale, surcharge +10%
- Endpoint regional : us-east1, europe-west1, etc., routage garanti, +10%, provisioned throughput disponible
- Comparaison avec Bedrock : 3 types d'endpoints Vertex AI vs 2 pour Bedrock (global + regional)
- Résidence des données : choisir le bon endpoint selon RGPD, FedRAMP High, contraintes sectorielles
- Provisioned throughput : quand et comment réserver de la capacité dédiée sur endpoints régionaux
- Démonstration : Comparer la latence entre endpoints global, us et europe-west1 sur un même prompt
Module 4 — API avancée : streaming, tool use et extended thinking
- Streaming SSE sur Vertex AI : Server-Sent Events, implémentation Python et TypeScript
- Appel REST brut avec curl : endpoint streamRawPredict, Bearer token via gcloud auth print-access-token
- Tool Use sur Vertex AI : schémas d'outils, tool_choice, boucle agentique multi-tools
- Extended Thinking : activation, budget_tokens, mode adaptive (Opus 4.6/Sonnet 4.6), interleaved thinking
- Vision et PDF : analyse d'images et documents, citations pour l'extraction structurée
- Prompt caching sur Vertex AI : même mécanisme que l'API directe, cache_control, TTL, économies -90%
- Atelier pratique : Développer un assistant avec tool use, streaming et extended thinking sur Vertex AI
Module 5 — RAG avec Vertex AI Search et services Google Cloud
- Architecture RAG sur GCP : Vertex AI Search comme alternative managée aux Knowledge Bases Bedrock
- Ingestion de documents : Cloud Storage (GCS), connecteurs natifs, preprocessing avec Dataflow
- Embeddings vectoriels : modèles Google (text-embedding) et intégration avec des embeddings tiers
- Vertex AI Vector Search : configuration d'index, requêtes de similarité, scaling automatique
- Pipeline RAG complet : ingestion → chunking → embedding → retrieval → augmentation → génération Claude
- Comparaison avec le RAG natif Anthropic : search_result_block et citations vs pipeline Vertex AI Search
- Exercice : Déployer un pipeline RAG avec Cloud Storage, Vertex AI Search et Claude comme générateur
Module 6 — Intégration BigQuery, Cloud Functions et Dataflow
- Cloud Functions + Claude : serverless event-driven, déclenchement par Pub/Sub, HTTP ou Cloud Storage
- BigQuery + Claude : analyse de données à grande échelle, enrichissement de tables, classification de texte
- Dataflow + Claude : pipelines de streaming et batch pour le traitement de données en temps réel
- Pattern complet : événement GCS → Cloud Function → Claude via Vertex AI → résultat dans BigQuery
- Pub/Sub pour l'orchestration : découplage des composants, files d'attente et retry automatique
- Atelier pratique : Construire un pipeline Cloud Function → Claude → BigQuery qui analyse et classe des documents
Module 7 — Optimisation des coûts et quotas sur Vertex AI
- Tarification Vertex AI : identique à l'API directe sur endpoint global, +10% sur multi-region et regional
- Prompt caching sur Vertex AI : écriture 5 min (1.25x) et 1h (2x), lecture à 0.1x = -90%
- Batch processing : pay-as-you-go standard et provisioned throughput (pas de discount -50% natif comme Bedrock)
- Stratégie de choix de modèle : Haiku 4.5 pour le volume, Sonnet 4.6 pour l'équilibre, Opus 4.6 pour la qualité
- Gestion des quotas GCP : requêtes par minute, tokens par minute, monitoring et alertes
- Crédits GCP et engagements : utiliser des crédits existants pour réduire le coût total
- Exercice : Calculer le TCO d'un workflow et optimiser avec caching + endpoint adapté + modèle approprié
Module 8 — Architecture de production et bonnes pratiques GCP
- Architecture de référence : API Gateway → Cloud Functions → Vertex AI, BigQuery pour l'analytics, GCS pour les documents
- Request-response logging : journalisation prompts et complétions, rétention 30 jours recommandée
- Cloud Monitoring : métriques d'invocation, latence, taux d'erreur, alertes de coûts
- Sécurité : IAM least privilege, Service Accounts dédiés, VPC Service Controls, chiffrement natif GCP
- Haute disponibilité : endpoint global pour la résilience, fallback multi-region
- Fonctionnalités exclusives API directe non disponibles sur Vertex : web search, web fetch, code execution
- SDKs disponibles : Python, TypeScript, Go, Java, C#, PHP, Ruby — exemples comparés
- Atelier final : Concevoir et documenter une architecture Vertex AI complète avec RAG, intégrations et monitoring Cloud
- Configurer l'accès aux modèles Claude sur Vertex AI (projet GCP, Model Garden, IAM/Service Accounts)
- Maîtriser l'API Vertex AI pour Claude : SDK Anthropic pour Vertex, API REST rawPredict et streaming SSE
- Comprendre les différences clés entre l'API Vertex AI et l'API directe Anthropic
- Choisir entre les 3 types d'endpoints (global, multi-region, regional) selon les contraintes de résidence
- Construire un pipeline RAG avec Vertex AI Search et les embeddings vectoriels Google Cloud
- Intégrer Claude avec BigQuery, Cloud Functions et Dataflow pour des workflows de données
- Optimiser les coûts : endpoints, prompt caching, provisioned throughput et gestion des quotas GCP
Développeurs cloud, architectes solutions GCP, data engineers et ingénieurs ML souhaitant déployer et exploiter Claude dans l'écosystème Google Cloud Platform.
Prix par participant
Financement OPCO ou France Travail possible
lun. 15 févr. 2027
Présentiel
lun. 26 avr. 2027
Présentiel
lun. 7 juin 2027
Présentiel
Organisme certifié Qualiopi
Garantie qualité et éligibilité aux financements publics
Formation intra-entreprise
Aucune session ne vous convient ? Cette formation est également disponible en intra-entreprise, sur mesure et dans vos locaux.
Formations similaires
Découvrez d'autres formations dans la catégorie IA & IA Générative
Prêt à vous former ?
Nos conseillers vous accompagnent dans le choix de votre financement et la mise en place de votre formation.