Libérez-vous des contraintes opérationnelles avec Elastic Cloud Serverless. Profitez d’un scaling automatique, gérez les pics de charge et concentrez-vous sur le développement – commencez par un essai gratuit de 14 jours pour le tester par vous-même !
Suivez ces guides pour créer une expérience de recherche optimisée par l’IA ou rechercher dans vos systèmes et logiciels métier.
Elastic Cloud Serverless est déjà la solution de référence pour les développeurs souhaitant créer des applications de recherche et d'IA performantes sans se soucier de la gestion de l'infrastructure. Désormais, les performances de vos projets sans serveur atteignent un tout autre niveau.
Nous avons effectué une mise à niveau majeure de l'infrastructure pour tous les projets Elastic Cloud Serverless exécutés sur AWS, en migrant vers du matériel plus récent et plus performant. Cette modification a été déployée automatiquement sur tous les projets sans serveur. Vous bénéficiez maintenant d'un débit plus élevé et d'une latence plus faible pour les projets sans serveur Elasticsearch, Elastic Observability et Elastic Security sur AWS.
Principaux avantages en termes de performances pour les développeurs
La nouvelle infrastructure matérielle d'AWS sous-tend tout ce que vous faites avec Elastic Cloud Serverless, ce qui se traduit par des avantages tangibles au niveau de la vitesse et de la réactivité de vos applications.
Latence des requêtes réduite… débit accru
Le matériel amélioré augmente considérablement la vitesse des ressources de calcul ; vos requêtes de recherche sont ainsi traitées plus rapidement que jamais.
- Recherche et recherche vectorielle : que vous exécutiez des recherches full text traditionnelles ou que vous utilisiez la recherche vectorielle de pointe pour vos applications d'IA générative et de génération augmentée par récupération (RAG), vous constaterez une diminution notable de la latence. Une analyse comparative interne a révélé une diminution moyenne de 35 % de la latence de recherche.
- Indexation plus rapide : les taux d'ingestion de données sont optimisés, vous permettant d'indexer d'énormes volumes de données et des documents complexes avec un débit accru. Ceci est crucial pour les applications qui nécessitent une visibilité des données en temps quasi‑réel. L'évaluation comparative interne a montré une augmentation moyenne de 26 % du débit d'indexation.
Performances constantes sous charge
Elastic Cloud Serverless est conçu pour s'adapter automatiquement et dynamiquement en temps réel à la demande, minimisant ainsi la latence, quelle que soit votre charge de travail. Grâce à cette amélioration matérielle, le scaling est désormais plus performant et réactif.
- Gestion facile des pics de charge : qu'il s'agisse d'une augmentation soudaine du trafic utilisateur ou d'une ingestion massive de données par lots, la nouvelle infrastructure garantit un scaling vertical plus efficace sur vos ressources de recherche et d'indexation afin de maintenir une latence faible de façon constante.
- Découplage optimisé calcul‑stockage : l'architecture sans serveur sépare le calcul et le stockage, ce qui permet aux charges de travail de scaler indépendamment pour des performances et une rentabilité optimales. Le matériel plus rapide améliore la couche de calcul, maximisant l'efficacité de cette conception découplée.
Sous le capot : résultats des analyses comparatives internes
Pour quantifier l'impact de la mise à niveau de notre infrastructure AWS, l'équipe d'ingénierie d'Elastic a mené des tests de performance internes complets sur un large éventail de charges de travail sans serveur. Ces charges de travail ont fourni des preuves concrètes des améliorations de performances que vous pouvez attendre de vos applications, quel que soit votre cas d'utilisation.
L'approche d'analyse comparative
Nous avons concentré nos tests sur les indicateurs clés qui influencent directement l'expérience développeur et la réactivité des applications : le temps de réponse (c'est-à-dire la latence) et le débit lors des opérations de recherche et d'indexation.
- Test des charges de travail : les tests comprenaient des opérations de recherche à haute simultanéité typiques des applications destinées aux utilisateurs, des requêtes de recherche vectorielle complexes et l'ingestion/l'indexation de données à fort volume pour des cas d'utilisation d'observabilité et de sécurité. Plus précisément, notre méthodologie de test a utilisé des ensembles de données accessibles au public pour Rally, l'outil d'évaluation comparative d'Elastic.
wikipedia: Un ensemble de données issu d'un instantané du contenu textuel de Wikipédia, pour mesurer les performances de recherche textuelle à usage général.MSMARCO-Passage-Ranking: Un ensemble de données issu de Microsoft Machine Reading Comprehension (MS MARCO), pour mesurer les performances de recherche sur des champs vectoriels épars.OpenAI_Vector: Un ensemble de données issu du NQ de BEIR et enrichi d'embeddings générés par le modèletext-embedding-ada-002d'OpenAI, pour évaluer les performances de recherche sur des champs vectoriels denses.
- Mesure : nous avons comparé les performances de l'ancienne et de la nouvelle infrastructure, en mesurant la latence au 99e percentile (P99) afin de capturer les performances les plus mauvaises et le nombre d'opérations par seconde, en tenant compte de la latence de queue. Chaque piste a été exécutée cinq fois pour chaque profil de matériel afin de garantir la cohérence des résultats.
- L'objectif : Notre objectif était de valider la capacité de l'infrastructure à fournir des performances plus rapides et plus prévisibles de manière constante, même pendant les périodes d'autoscaling rapide.
Résumé des données de performance
Les résultats confirment des gains d'efficacité et de rapidité significatifs. Ces gains se traduisent directement par des temps de réponse plus courts pour vos utilisateurs et par une réduction des coûts opérationnels grâce à la possibilité d'effectuer la même quantité de travail avec moins de ressources de calcul.
Les tableaux suivants décrivent en détail les améliorations quantitatives. Plus les valeurs sont élevées, meilleur est le débit ; plus les valeurs sont faibles, meilleure est la latence.
Résultats des recherches de référence :
| Référence | Comparatif | Ancienne infrastructure | Nouvelle infrastructure | Différentiel |
|---|---|---|---|---|
| 'wikipedia' (texte brut) | Débit des opérations de recherche (ops/s) | 729 | 1107 | +52 % |
| 'wikipedia' (texte brut) | Latence des opérations de recherche (p99, ms) | 56 | 35 | -37 % |
| `MSMARCO-Passage-Ranking` (vecteurs épars) | Débit des opérations de recherche (ops/s) | 22 | 31 | +40 % |
| `MSMARCO-Passage-Ranking` (vecteurs épars) | Latence des opérations de recherche (p99, ms) | 108 | 67 | -38 % |
| 'OpenAI_Vector' (vecteurs denses) | Débit des opérations de recherche (ops/s) | 475 | 624 | +31 % |
| 'OpenAI_Vector' (vecteurs denses) | Latence des opérations de recherche (p99, ms) | 35 | 22 | -37 % |
Résultats de référence de l'indexation :
| Référence | Comparatif | Ancienne infrastructure | Nouvelle infrastructure | Différentiel |
|---|---|---|---|---|
| 'wikipedia' (texte brut) | Débit des opérations de recherche (ops/s) | 2 845 | 3 220 | +13 % |
| 'wikipedia' (texte brut) | Latence des opérations de recherche (p99, ms) | 1769 | 1120 | -37 % |
| `MSMARCO-Passage-Ranking` (vecteurs épars) | Débit des opérations de recherche (ops/s) | 7087 | 8 900 | +26 % |
| `MSMARCO-Passage-Ranking` (vecteurs épars) | Latence des opérations de recherche (p99, ms) | 824 | 677 | -18 % |
| 'OpenAI_Vector' (vecteurs denses) | Débit des opérations de recherche (ops/s) | 2972 | 3187 | +7% |
| 'OpenAI_Vector' (vecteurs denses) | Latence des opérations de recherche (p99, ms) | 2946 | 2944 | 0 % |
L'avantage supplémentaire : réduction des coûts
Bien que notre priorité soit de fournir des performances à faible latence, l'efficacité du nouveau matériel a également un impact direct et positif sur les coûts des projets Elasticsearch.
La tarification d'Elasticsearch Serverless est basée sur l'utilisation : vous ne payez que pour les ressources d'ingestion et de recherche que vous consommez. Grâce à un matériel plus récent et plus rapide, vos charges de travail s'exécuteront souvent avec moins de ressources, ce qui se traduit par une réduction des coûts pour la plupart des projets. Vous bénéficiez ainsi de performances optimales sans le surcoût : l'efficacité par excellence.
Qu'est-ce que cela signifie pour vous, le développeur ?
Cette mise à niveau de l'infrastructure est entièrement gérée par Elastic ; vous n'avez donc rien à faire, aucune migration ni modification de configuration. L'amélioration est immédiate et automatique pour tous vos projets sans serveur sur AWS.
Cette mise à niveau vous permet de :
- Créez des applications plus rapides : concentrez-vous sur la vélocité des fonctionnalités, en sachant que votre plateforme de recherche sous-jacente offre la vitesse exigée par vos utilisateurs.
- Innovez en confiance : déployez de nouvelles fonctionnalités de recherche, d'observabilité et de sécurité, y compris des capacités d'IA complexes telles que la recherche vectorielle et le classement par pertinence, sachant que la plateforme peut gérer la charge à des performances optimales.
- Simplifiez votre stack : utilisez un service entièrement géré qui prend en charge l'infrastructure, la planification de la capacité et le scaling, et concentrez‑vous sur votre code et vos données.




