Akademia Formation
Claude sur Google Cloud Vertex AI — Intégration Cloud Google

Claude sur Google Cloud Vertex AI — Intégration Cloud Google

2 jours / 14h
Programme détaillé

Module 1 — Pourquoi Vertex AI : positionnement et avantages

  • Trois voies d'accès à Claude : API directe Anthropic, Amazon Bedrock, Google Vertex AI
  • Avantages Vertex AI : facturation GCP consolidée, conformité FedRAMP High/SOC, crédits GCP utilisables
  • Arbre de décision : quand choisir Vertex AI vs API directe vs Bedrock selon les contraintes projet
  • Modèles disponibles : Opus 4.6, Sonnet 4.6, Haiku 4.5 avec Vertex Model IDs et dates de retrait
  • Fenêtres de contexte : 1M tokens (Opus/Sonnet 4.6) vs 200K tokens (autres modèles), limite payload 30 Mo
  • Exercice : Comparer les 3 plateformes sur 3 cas d'usage entreprise et choisir la plus adaptée

Module 2 — Setup et première requête Vertex AI

  • Prérequis : projet GCP avec facturation activée, gcloud CLI installé, Vertex AI API activée
  • Accès aux modèles Claude via le Vertex AI Model Garden : demande d'accès et validation
  • Authentification : gcloud auth application-default login, chaîne de credentials google-auth-library
  • Service Accounts : création, rôles IAM Vertex AI, clé JSON pour les environnements serveur
  • Installation des SDKs : pip install anthropic[vertex] (Python), npm install @anthropic-ai/vertex-sdk (TS)
  • Première requête : AnthropicVertex avec project_id et region, format de réponse
  • Différences clés avec l'API directe : model dans l'URL (pas le body), anthropic_version vertex-2023-10-16 dans le body
  • Atelier pratique : Configurer l'environnement GCP, activer Vertex AI et exécuter ses premières requêtes via SDK et curl

Module 3 — Les 3 types d'endpoints Vertex AI

  • Endpoint global (recommandé) : region="global", routage dynamique, pas de surcharge, pay-as-you-go uniquement
  • Endpoint multi-region : region="us" ou "eu", résidence données continentale, surcharge +10%
  • Endpoint regional : us-east1, europe-west1, etc., routage garanti, +10%, provisioned throughput disponible
  • Comparaison avec Bedrock : 3 types d'endpoints Vertex AI vs 2 pour Bedrock (global + regional)
  • Résidence des données : choisir le bon endpoint selon RGPD, FedRAMP High, contraintes sectorielles
  • Provisioned throughput : quand et comment réserver de la capacité dédiée sur endpoints régionaux
  • Démonstration : Comparer la latence entre endpoints global, us et europe-west1 sur un même prompt

Module 4 — API avancée : streaming, tool use et extended thinking

  • Streaming SSE sur Vertex AI : Server-Sent Events, implémentation Python et TypeScript
  • Appel REST brut avec curl : endpoint streamRawPredict, Bearer token via gcloud auth print-access-token
  • Tool Use sur Vertex AI : schémas d'outils, tool_choice, boucle agentique multi-tools
  • Extended Thinking : activation, budget_tokens, mode adaptive (Opus 4.6/Sonnet 4.6), interleaved thinking
  • Vision et PDF : analyse d'images et documents, citations pour l'extraction structurée
  • Prompt caching sur Vertex AI : même mécanisme que l'API directe, cache_control, TTL, économies -90%
  • Atelier pratique : Développer un assistant avec tool use, streaming et extended thinking sur Vertex AI

Module 5 — RAG avec Vertex AI Search et services Google Cloud

  • Architecture RAG sur GCP : Vertex AI Search comme alternative managée aux Knowledge Bases Bedrock
  • Ingestion de documents : Cloud Storage (GCS), connecteurs natifs, preprocessing avec Dataflow
  • Embeddings vectoriels : modèles Google (text-embedding) et intégration avec des embeddings tiers
  • Vertex AI Vector Search : configuration d'index, requêtes de similarité, scaling automatique
  • Pipeline RAG complet : ingestion → chunking → embedding → retrieval → augmentation → génération Claude
  • Comparaison avec le RAG natif Anthropic : search_result_block et citations vs pipeline Vertex AI Search
  • Exercice : Déployer un pipeline RAG avec Cloud Storage, Vertex AI Search et Claude comme générateur

Module 6 — Intégration BigQuery, Cloud Functions et Dataflow

  • Cloud Functions + Claude : serverless event-driven, déclenchement par Pub/Sub, HTTP ou Cloud Storage
  • BigQuery + Claude : analyse de données à grande échelle, enrichissement de tables, classification de texte
  • Dataflow + Claude : pipelines de streaming et batch pour le traitement de données en temps réel
  • Pattern complet : événement GCS → Cloud Function → Claude via Vertex AI → résultat dans BigQuery
  • Pub/Sub pour l'orchestration : découplage des composants, files d'attente et retry automatique
  • Atelier pratique : Construire un pipeline Cloud Function → Claude → BigQuery qui analyse et classe des documents

Module 7 — Optimisation des coûts et quotas sur Vertex AI

  • Tarification Vertex AI : identique à l'API directe sur endpoint global, +10% sur multi-region et regional
  • Prompt caching sur Vertex AI : écriture 5 min (1.25x) et 1h (2x), lecture à 0.1x = -90%
  • Batch processing : pay-as-you-go standard et provisioned throughput (pas de discount -50% natif comme Bedrock)
  • Stratégie de choix de modèle : Haiku 4.5 pour le volume, Sonnet 4.6 pour l'équilibre, Opus 4.6 pour la qualité
  • Gestion des quotas GCP : requêtes par minute, tokens par minute, monitoring et alertes
  • Crédits GCP et engagements : utiliser des crédits existants pour réduire le coût total
  • Exercice : Calculer le TCO d'un workflow et optimiser avec caching + endpoint adapté + modèle approprié

Module 8 — Architecture de production et bonnes pratiques GCP

  • Architecture de référence : API Gateway → Cloud Functions → Vertex AI, BigQuery pour l'analytics, GCS pour les documents
  • Request-response logging : journalisation prompts et complétions, rétention 30 jours recommandée
  • Cloud Monitoring : métriques d'invocation, latence, taux d'erreur, alertes de coûts
  • Sécurité : IAM least privilege, Service Accounts dédiés, VPC Service Controls, chiffrement natif GCP
  • Haute disponibilité : endpoint global pour la résilience, fallback multi-region
  • Fonctionnalités exclusives API directe non disponibles sur Vertex : web search, web fetch, code execution
  • SDKs disponibles : Python, TypeScript, Go, Java, C#, PHP, Ruby — exemples comparés
  • Atelier final : Concevoir et documenter une architecture Vertex AI complète avec RAG, intégrations et monitoring Cloud
Objectifs pédagogiques
  • Configurer l'accès aux modèles Claude sur Vertex AI (projet GCP, Model Garden, IAM/Service Accounts)
  • Maîtriser l'API Vertex AI pour Claude : SDK Anthropic pour Vertex, API REST rawPredict et streaming SSE
  • Comprendre les différences clés entre l'API Vertex AI et l'API directe Anthropic
  • Choisir entre les 3 types d'endpoints (global, multi-region, regional) selon les contraintes de résidence
  • Construire un pipeline RAG avec Vertex AI Search et les embeddings vectoriels Google Cloud
  • Intégrer Claude avec BigQuery, Cloud Functions et Dataflow pour des workflows de données
  • Optimiser les coûts : endpoints, prompt caching, provisioned throughput et gestion des quotas GCP

Développeurs cloud, architectes solutions GCP, data engineers et ingénieurs ML souhaitant déployer et exploiter Claude dans l'écosystème Google Cloud Platform.

Expérience Google Cloud Platform (console, IAM, au moins un service comme Cloud Functions ou BigQuery). Bases en programmation Python. Notions d'API REST.

Prix par participant

1 790€ HT
2 jours de formation (14h)
Présentiel
Certification incluse
Supports de cours fournis

Financement OPCO ou France Travail possible

Prochaines sessions

lun. 15 févr. 2027

Présentiel

lun. 26 avr. 2027

Présentiel

lun. 7 juin 2027

Présentiel

Organisme certifié Qualiopi

Garantie qualité et éligibilité aux financements publics

Programme de formation

Télécharger le PDF

Formation intra-entreprise

Aucune session ne vous convient ? Cette formation est également disponible en intra-entreprise, sur mesure et dans vos locaux.

Prêt à vous former ?

Nos conseillers vous accompagnent dans le choix de votre financement et la mise en place de votre formation.