Google Vertex AI

Vertex AI met à votre disposition une gamme de modèles d’IA générative via diverses API, pour vous aider à bâtir des applications intelligentes adaptées à un large éventail de cas d’utilisation. Propulsés par la recherche de pointe de Google, ces modèles vous aident à générer du texte, à traduire des langues, à créer différents types de contenu, et à obtenir des réponses informatives à vos questions.

API Gemini

Les modèles Google Gemini sont conçus pour des applications multimodales. Les modèles Gemini acceptent les invites qui incluent, par exemple, du texte et des images, et renvoient ensuite une réponse textuelle. Gemini prend également en charge l’appel de fonction, ce qui permet aux développeurs de passer la description d’une fonction. Le modèle renvoie ensuite une fonction et des paramètres qui correspondent le mieux à cette description. Les développeurs peuvent ensuite appeler cette fonction dans des API et des services externes.

Gemini 1.5 Pro: Doté d’une fenêtre de contexte étendue pouvant traiter jusqu’à 1 million de jetons, ce modèle avancé assure une compréhension nuancée des requêtes complexes et génère des réponses très complètes.

Gemini 1.0 Pro & Gemini 1.0 Pro Vision Ces modèles sont parfaits pour les tâches en langage naturel, les conversations à plusieurs tours et la génération de codes. Ils offrent également la possibilité d’incorporer des images, des PDF et des vidéos dans vos invites, ce qui les rend polyvalents pour les applications multimodales.

Gemini 1.0 Ultra & Gemini 1.0 Ultra Vision: En tant que modèles multimodaux les plus performants de Google, ils sont optimisés pour les tâches complexes impliquant la compréhension des instructions, la génération de code et le raisonnement. Ils offrent un support pour plusieurs langues et sont actuellement disponibles pour un groupe restreint de clients.

Plongements textuels

Embeddings for Text (textembedding-gecko) est le nom du modèle qui prend en charge les plongements de texte. Les plongements de texte sont une technique NLP qui convertit les données textuelles en vecteurs numériques qui peuvent être traités par des algorithmes de machine learning, en particulier les grands modèles. Ces représentations vectorielles sont conçues pour capturer le sens sémantique et le contexte des mots qu’elles représentent.

Il existe plusieurs versions disponibles pour les plongements. Le modèle textembedding-gecko@003 est le dernier modèle de plongement stable avec une qualité d’IA améliorée, tandis que textembedding-gecko-multilingual@001 est optimisé pour un large éventail de langues autres que l’anglais.

Représentations multimodales

Les modèles Embeddings for Multimodal (multimodalembedding) génèrent des vecteurs de dimensions (128, 256, 512 ou 1408) en fonction de l'entrée que vous fournissez. Cette entrée peut inclure toute combinaison de texte, d'image ou de vidéo. Les vecteurs de plongement peuvent ensuite être utilisés pour d’autres tâches subséquentes, comme la classification d’images ou la modération de contenu.

Les vecteurs d'intégration de texte, d'image et de vidéo se trouvent dans le même espace sémantique avec la même dimensionnalité. Par conséquent, ces vecteurs peuvent être utilisés de manière interchangeable pour des cas d’usage comme la recherche d’images par texte ou la recherche de vidéos par image.

Lancez-vous

Notebooks

Exemple d'application de chatbot

Prêt à créer des expériences de recherche d'exception ?

Une recherche suffisamment avancée ne se fait pas avec les efforts d'une seule personne. Elasticsearch est alimenté par des data scientists, des ML ops, des ingénieurs et bien d'autres qui sont tout aussi passionnés par la recherche que vous. Mettons-nous en relation et travaillons ensemble pour construire l'expérience de recherche magique qui vous permettra d'obtenir les résultats que vous souhaitez.

Jugez-en par vous-même