自然言語処理(NLP)をデプロイする方法:開始する

blog-thumb-community-discussion.png

Elastic Stack 8.0では、PyTorch機械学習モデルをElasticsearchにアップロードする機能が導入され、Elastic Stackで最新の自然言語処理(NLP)を行うことができるようになりました。NLPは、密ベクトルと近似最近傍探索によって、情報の抽出テキストの分類検索の関連性の向上を実現する可能性をもたらしました。

このブログシリーズでは、さまざまなPyTorch NLPモデルを使用したエンドツーエンドの事例を紹介します。

パート1:テキスト埋め込みとベクトル検索をデプロイする方法
パート2:固有表現抽出(NER)
パート3:センチメント分析

各例では、Hugging Faceモデルハブから構築済みのNLPモデルを使用します。そして、NLPモデルのデプロイインジェストパイプラインへのNLP推論の追加については、Elasticの文書化された手順に従います。 定義済みのユースケースから始め、モデルで処理するテキストデータを最初に理解しておくことはいつでも有益であるため、まず、NLPと誰でも試せる共有データセットを使用する目的を定義します。

NLPの事例を準備するには、バージョン8.0以上で実行中のElasticsearchクラスター、2 GB以上のRAMが搭載されたMLノードが必要です。また、固有表現抽出(NER)の事例では、必要なmapper-annotated-textプラグインを使用します。最も簡単に始める方法の1つは、Elastic Cloudでご自身の14日間無料の試用版クラスターを使用して、これらのNLPのサンプルに従うことです。クラウドの試用版は最大2つの2 GBのMLノードまでスケールできます。このため、このブログシリーズで、1つまたは2つのサンプルを同時にデプロイできます。