La croissance du portefeuille de LLM de Vertex AI #
Une mise à jour notable est l’inclusion de Gemini 1.5 Pro, qui prend en charge 1 million de tokens de fenêtre contextuelle.
Les premiers retours des entreprises suggèrent que cette mise à jour pourrait éliminer le besoin d’affiner les modèles ou d’utiliser le RAG (Retrieval Augmented Generation) pour corriger les réponses du modèle. En plus de cela, Gemini 1.5 Pro peut désormais traiter les flux audio, y compris la parole et le son des vidéos.
La mise à jour de LLM Imagen 2 et l’arrivée de Codegemma #
Le catalogue de Google Cloud a vu l’évolution de LLM Imagen 2, avec notamment des capacités d’édition de photos et la possibilité de créer des vidéos de 4 secondes ou des « images en direct » à partir d’instructions textuelles. Codegemma, un modèle léger de la famille Gemma, est une autre addition notable aux mises à jour de LLM de Vertex AI.
Google a également annoncé que les équipes pourront utiliser des LLM dans Google Search et leurs propres données via Vertex AI. Cela permettra d’obtenir des réponses plus précises de leurs modèles de base, qui sont souvent limités par leurs données d’entraînement.
Expansion des capacités MLops dans Vertex AI #
Google Cloud a étendu les capacités MLops de Vertex AI pour aider les entreprises dans leurs tâches d’apprentissage machine. Une des fonctionnalités étendues, appelée Prompt Management, aide les équipes à expérimenter des invites, à migrer des invites et à suivre les paramètres.
Prompt Management fournit une bibliothèque d’invites utilisées par les équipes, y compris les versions, l’option de restauration des anciennes invites et les suggestions générées par l’IA pour améliorer les performances des requêtes. Les entreprises peuvent également comparer les itérations d’invites côte à côte pour évaluer l’impact de petits changements sur les résultats.
L’introduction d’un agent builder pour Vertex AI #
Google Cloud a introduit une offre d’agent builder basée sur l’IA générative pour concurrencer des rivaux tels que Microsoft et AWS. Nommée Vertex AI Agent Builder, cette offre no-code, qui est une combinaison de Vertex AI Search et du portefeuille de produits Conversation de la firme, propose une gamme d’outils pour construire plus rapidement des chatbots étayés par les LLM Gemini.
À lire Picard : cet apéritif vous aide à garder la ligne pendant les vacances
La rapidité de création des agents est due à l’utilisation de Vertex AI Search, un système RAG prêt à l’emploi. L’offre no-code comprend également des extensions, des fonctions et des connecteurs de données de Vertex AI.
- Les extensions Vertex AI sont des modules réutilisables préconstruits pour connecter un LLM à une API ou un outil spécifique.
- Les fonctions Vertex AI aident les développeurs à décrire un ensemble de fonctions ou d’API.
- Les connecteurs de données permettent d’ingérer des données provenant d’entreprises et d’applications tierces.
En plus de ces mises à jour, Google a ajouté Gemini à son offre de business intelligence, Looker. Cela donne à la plateforme des capacités d’analyse conversationnelle, de génération de rapports et de formules, LookML et d’assistance à la visualisation, ainsi que de génération automatisée de diapositives Google. La suite d’offres d’analyse de données bénéficie également de ces autres mises à jour, y compris le lancement d’une version gérée d’Apache Kafka pour BigQuery et l’interrogation continue pour le même service.
En somme, ces améliorations apportées à Vertex AI reflètent l’engagement de Google à soutenir les entreprises dans leurs efforts d’IA générative. Que ce soit par l’expansion de LLM, l’introduction d’un agent builder ou l’extension des capacités MLops, Google continue de repousser les limites de ce qui est possible dans le domaine de l’IA.