ElasticとNVIDIAは、ITインフラに負担をかけずにAIアプリをより速く導入できるよう支援します。

ボトルネックを解消し、よりスマートにスケールし、コストを抑制。ElasticとNVIDIAの連携により、GPUアクセラレーションを活用したベクトルデータベースのパワーを活用し、高性能AIを実現できます。

GPUアクセラレーションによるベクトル検索でAIパフォーマンスを最大化

ElasticsearchはNVIDIAと提携し、検索スタックにGPUパワーをもたらします。cuVSライブラリとCAGRAアルゴリズムを活用することで、Elasticsearchは大規模な並列処理を解き放ち、最も要求の厳しいRetrieval-Augmented Generation(RAG)パイプラインやAIアプリケーションに高速かつ超低レイテンシのインデキシングを提供します。

GPUでインデックスを作成し、最大スループットを実現。CPUでの検索でコストパフォーマンスを追求。パフォーマンスとコストの両方を最適化します。

数字で確認

  • 12
    インデキシングスループットの向上
  • 7
    マージレイテンシの低減
  • 5
    コスト調整済みスループットとCPUのみの比較

NVIDIA cuVSとElasticsearchベクトルデータベース:組み合わせて、よりよく

  • AIファクトリーを加速

    事前設計された設計図を使用して高性能な検索とエージェントAIをより迅速に立ち上げ。Elasticsearchは、NVIDIAエンタープライズAIファクトリーで検証された設計に推奨されるベクトルデータベースであり、スケールのための信頼性の高いオンプレミスフレームワークを提供します。

  • インデキシング速度を大幅に向上

    ボトルネックなしで大規模にデータをインデキシング。NVIDIA cuVSを統合することで、インデキシングのスループットが最大12倍、強制マージが7倍高速化され、膨大なデータをかつてない効率で処理できるようになります。

  • インフラ価値を最大化

    演算負荷の高いインデキシングをGPUにオフロードすることで、CPU負荷を大幅に軽減し、リソースを有効活用。コスト調整後ベースでGPUアクセラレーションによりスループットが5倍、強制マージが6倍高速化され、既存のハードウェア予算で優れたパフォーマンスを実現できます。

  • クエリパフォーマンスを向上

    大量のクエリをほぼ瞬時の応答時間で処理します。ElasticのNVIDIAアクセラレーション検索により、インフラストラクチャーを次世代の生成AIに合わせて拡張できるため、複雑なエージェントワークフローに必要な高速検索が可能になります。

エンタープライズ対応

ElasticとNVIDIAの最高の組み合わせをニーズに合わせて最適化

  • オープンでエンタープライズ対応

    オープンソースイノベーションの基盤の上に自信を持って構築。GPUアクセラレーションはApache 2.0ライセンスのNVIDIA cuVSライブラリによって駆動され、ELv2ライセンスのプラグインを介してElasticsearchに統合されており、オープンな柔軟性とエンタープライズグレードのサポートを兼ね備えています。

  • 無制限のインデキシングスケール

    ボトルネックなしで大規模にデータをインデキシング。NVIDIA cuVSを統合することで、インデキシングのスループットが12倍、強制マージが7倍高速化され、膨大なデータをかつてない効率で処理できるようになります。

  • KubernetesによるElasticのスケーリング

    クラスターの拡張と同じくらい簡単にアクセラレーションも拡張できます。Kubernetesオーケストレーションを介してElasticsearchプロセスを個々のGPUにマッピングすることで、大規模なインデックス作成ワークロードを複数のサーバーに分散し、並列スループットを最大化できます。

  • シームレスなCPU-GPUの相乗効果

    両方の利点を最大限に活用。Elasticは、GPUが得意とするグラフ構築のためのバルク演算を活用し、検索はCPUで行います。これにより、ハイパフォーマンスなHNSWグラフが記録的な速さで構築され、標準的な検索にもアクセスしやすくなります。

よくあるご質問

ElasticsearchのGPUアクセラレーションによるベクトルインデキシングはオープンソースで利用できますか?

はい、GPUアクセラレーションによるベクトルインデキシングを実装するコードはオープンソースです(AGPLとELv2のデュアルライセンス下)。ElasticsearchはELv2ライセンスの下でライセンスされ、エンタープライズサブスクリプション枠で利用できるプラグインを介して、GPUアクセラレーションによるベクトルインデキシング機能を公開しています。ElasticsearchのGPUインデックス機能を強化するライブラリのNVIDIA cuVSは、Apache 2.0ライセンスの下でオープンソースとしても利用可能です。

問題が発生した場合や提案がある場合はどうすればよいですか?

問題が発生した場合はトラブルシューティングの手順を試してください。それでも問題が解決しない場合は、Elasticsearch GitHubでイシューを作成してください。問題がNVIDIA cuVSとその依存関係に関係している場合はNVIDIA cuVSのGitHubでイシューを開いてください。エンタープライズサブスクリプションをお持ちの場合はElasticカスタマーサポートチャネル経由で当社に連絡して問題を解決してください。提案や機能リクエストには同じチャネルを使用してください。

Elasticsearch データノードに NVIDIA cuVS をインストールして GPU ベクトルインデキシングを有効にするにはどうすればよいですか?

NVIDIA cuVSは、データベースユーザーの場合はNVIDIAチャネルからtarball経由で、データサイエンスユーザーの場合はpipまたはcondaパッケージマネージャー経由で、プリコンパイル済みパッケージとしてインストールできます。また、ソースから cuVS をビルドし、バイナリを自分で保守することもできます。詳細についてはNVIDIA cuVSインストールページをご覧ください。GPUにNVIDIA AI Enterprise(NVAIE)サブスクリプションをご利用のユーザーの場合はCVE修正がサポートされ、CVEのサポートが保証されたcuVS tarballが数か月以内にNGCカタログから提供される予定です。詳細についてはNVAIEサポートチームまたはNVIDIAの営業担当者にお問い合わせください。

ベクトルインデキシングは、1台または複数のサーバーにわたる複数のGPUでスケールできますか?

はい、Kubernetesのようなコンテナオーケストレーションシステムを使用して、各Elasticsearchプロセスを1つの利用可能なGPUにマッピングできます。1つのElasticsearchプロセスは1つのGPUを専有する必要があります。このように、複数のGPUを使用するスケーリングは、クラスター内のノードをスケーリングすることになります。

ベクトルインデックスのサイズは利用可能なGPUメモリによって制限されますか?

GPUメモリよりも大きなインデックス(アウトオブコア)をバッチで構築できます。GPUインデックス作成では、CPUベースのインデックス作成で既に存在する制限以外に、新たな制限は発生しません。

ベクトル検索にGPUアクセラレーションは利用可能ですか?

いいえ、現時点ではHNSWインデックス構築のみがGPUアクセラレーションの対象です。生成されたHNSWグラフはホスト(CPU)メモリにロードされ、ベクトル検索はCPU上で実行されます。この決定の理由は、GPUがバルクベクトル演算において大きな優位性を持つためです。技術とユースケースの進化に伴い、GPUの活用範囲をさらに拡大することを検討していきます。

GPUベクトルインデキシングのパフォーマンスとコストの利点を評価するにはどうすればよいですか?

ElasticのRallyツールを使用して、GPUがインデキシングスループット、強制マージレイテンシ、ベクトル検索の精度とレイテンシ/スループットに与える影響を評価できます。Rallyを使用してGPUでE2Eベクトルインデキシングのベンチマークを実行する手順とベストプラクティスをご覧ください

どの要素タイプとインデックスタイプがサポートされていますか?

Elasticsearchはいくつかの異なるインデキシングパラメータをサポートしていますhnsw値とint8_hnsw値の両方がindex_options.typeパラメータでサポートされています。element_typeではfloatのみがサポートされています。現時点では、他のインデックスおよび要素タイプはサポートされていません。