Comment déployer le traitement du langage naturel : premiers pas

blog-thumb-community-discussion.png

Bonne nouvelle ! Dans la version 8.0, Elastic offre la possibilité de charger des modèles de Machine Learning PyTorch dans Elasticsearch pour appliquer le traitement du langage naturel (NLP) à la Suite Elastic. Le NLP génère des possibilités pour extraire des informations, classer du texte, mais aussi garantir une meilleure pertinence des recherches grâce aux vecteurs denses et à la recherche du plus proche voisin approximatif.

Cette série d'articles de blog en plusieurs parties vous permettra de découvrir des exemples concrets utilisant différents modèles NLP PyTorch.

Première partie : comment déployer les plongements textuels et la recherche vectorielle
Deuxième partie : reconnaissance d'entités nommées (NER)
Troisième partie : analyse des sentiments

Dans chaque exemple, nous utiliserons un modèle NLP prédéfini provenant du hub de Hugging Face. Ensuite, nous suivrons les instructions documentées d'Elastic pour déployer un modèle NLP et ajouter une inférence NLP à un pipeline d'ingestion.  Étant donné qu'il est toujours bien de commencer par un cas d'utilisation défini et une compréhension des données textuelles à traiter dans le modèle, nous essaierons tout d'abord d'établir l'objectif de l'utilisation du NLP et un ensemble de données partagé que tout le monde peut utiliser.

Pour nous préparer à utiliser l'exemple NLP, nous avons besoin d'un cluster Elasticsearch exécuté au minimum sur la version 8.0 et d'un nœud de Machine Learning doté d'au moins 2 Go de RAM. En outre, pour l'exemple de reconnaissance d'entités nommées (NER), nous utiliserons le plug-in mapper-annotated-text requis. Pour vous lancer, une méthode simple est de commencer un essai gratuit de 14 jours de votre propre cluster dans Elastic Cloud afin de mettre en pratique ces exemples NLP. Les essais dans le cloud peuvent scaler deux nœuds de Machine Learning de 2 Go au maximum, qui vous permettront de déployer un ou deux exemples à tout moment dans le cadre de cette série d'articles.