Fonctionnalités de la Suite Elastic

API pensées pour les développeurs, fonctionnalités de sécurité conçues pour les entreprises, Machine Learning et analyses de graphes… Voilà quelques-unes des fonctionnalités de la Suite Elastic, avec certaines initialement regroupées dans X-Pack, qui vous aident à ingérer, analyser, rechercher et visualiser tous types de données à grande échelle.

Gestion et opérations

SignUpCTA

Gestion et opérations

Gestion et opérations

Scalabilité et résilience

Ce n'est pas un hasard si, dès l'origine, nous avons opté pour un environnement distribué conçu pour rimer avec tranquillité d'esprit. Nos clusters évoluent en fonction de vos besoins – il suffit d'ajouter un nœud.

Clustering et haute disponibilité

Un cluster est un ensemble d'un ou plusieurs nœuds (serveurs) qui stockent toutes vos données et vous permet d'indexer et de rechercher des données dans l'ensemble des nœuds. Les clusters Elasticsearch sont dotés de partitions principales et de copies pour fournir un basculement en cas de panne d'un nœud. Lorsqu'une partition principale tombe en panne, la copie prend sa place.

Découvrir le clustering et la haute disponibilité

Récupération automatique de nœud

Lorsqu'un nœud sort du cluster pour n'importe quelle raison, intentionnelle ou non, le nœud maître réagit en remplaçant le nœud par une copie et en rééquilibrant les partitions. Ces actions ont pour but de protéger le cluster contre la perte de données en s'assurant que toutes les partitions sont entièrement répliquées aussi vite que possible.

Découvrir l'attribution de nœud

Rééquilibrage automatique des données

Le nœud maître de votre cluster Elasticsearch décide automatiquement quelles partitions attribuer à quels nœuds, et quand déplacer les partitions entre les nœuds pour rééquilibrer le cluster.

Découvrir le rééquilibrage automatique des données

Scalabilité horizontale

Plus vous utilisez Elasticsearch, plus il scale avec vous. Ajoutez plus de données, plus de cas d'utilisation, et lorsque vous commencez à manquer de ressources, ajoutez simplement un autre nœud à votre cluster pour augmenter sa capacité et sa fiabilité. Enfin, lorsque vous ajoutez plus de nœuds à un cluster, Elasticsearch attribue automatiquement des partitions copies pour que vous soyez préparé pour les événements futurs.

Découvrir la montée en charge horizontale

Opérations de rack

Vous pouvez utiliser des attributs de nœud personnalisés en tant qu'attributs d'opération pour permettre à Elasticsearch de prendre en compte la configuration de votre matériel physique lorsqu'il affecte des partitions. Si Elasticsearch sait quels nœuds se situent sur le même serveur physique, dans le même rack, ou dans la même zone, il peut distribuer la partition principale et les partitions répliquées pour minimiser le risque de perte de toutes les copies de partition en cas de panne.

Découvrir les opérations d'attribution

Réplication inter-clusters

La fonctionnalité de réplication inter-clusters (CCR) permet de répliquer les index situés dans des clusters distants sur un cluster local. Cette fonctionnalité peut être utilisée dans des cas d'utilisation de production communs.

Découvrir la CCR
  • Reprise d'activité après sinistre : si un cluster principal tombe en panne, un cluster secondaire peut servir de sauvegarde "hot".

  • Proximité géographique : les lectures peuvent être servies localement et diminuer le temps de réponse du réseau.

Réplication inter-data center

Cela fait longtemps que la réplication inter-data center est une exigence des applications critiques d'Elasticsearch. Auparavant, Elasticsearch recourait à des technologies supplémentaires pour répondre à cette exigence. Grâce à la réplication inter-cluster d'Elasticsearch, vous n'avez pas besoin de technologies supplémentaires pour répliquer des données dans plusieurs data centers, régions ou clusters Elasticsearch.

Découvrir la réplication inter-data center

Gestion et opérations

Monitoring

Les fonctionnalités de monitoring d'Elastic Stack vous donnent une visibilité à 360 degrés sur le fonctionnement de la Suite Elastic. Gardez un œil sur ses performances pour être sûr d'exploiter tout son potentiel.

Monitoring full-stack

Les fonctionnalités de monitoring de la Suite Elastic vous donnent un aperçu du fonctionnement d'Elasticsearch, de Logstash et de Kibana. L'ensemble des indicateurs de monitoring sont stockés dans Elasticsearch, ce qui vous permet de visualiser facilement les données de Kibana.

Découvrir le monitoring de la Suite Elastic

Monitoring multi-stack

Simplifiez votre charge de travail à l'aide d'un cluster de monitoring centralisé pour enregistrer, suivre et comparer l'état de santé et la performance de multiples clusters Elasticsearch.

Découvrir le monitoring multi-stack

Règle de conservation configurable

Grâce à la Suite Elastic, vous pouvez contrôler la durée de conservation des données de monitoring. La durée par défaut est de 7 jours, mais vous pouvez définir celle que vous souhaitez.

Découvrir les règles de conservation

Alertes automatiques concernant des problèmes de stack

Avec les fonctionnalités d'Alerting de la Suite Elastic, recevez des notifications automatiques lorsque des changements interviennent dans votre cluster (état du cluster, expiration de licence et autres indicateurs d'Elasticsearch, Kibana et Logstash, par exemple).

En savoir plus sur les alertes automatiques relatives aux stacks

Gestion et opérations

Gestion

La Suite Elastic comprend différents outils de gestion, interfaces utilisateur et API, qui vous confèrent un contrôle total sur les données, les utilisateurs, les opérations de cluster, et plus encore.

Gestion du cycle de vie des index

La gestion du cycle de vie des index (ILM) permet à l'utilisateur de définir et d'automatiser des règles de contrôle de la durée pendant laquelle un index doit être utilisé dans les quatre phases, ainsi que les actions à effectuer dans l'index pendant chaque phase. Cela permet de mieux contrôler le coût des opérations, car on peut placer les données dans des niveaux de ressource différents.

Découvrir l'ILM
  • "Hot" (brûlant) : fréquemment mis à jour et demandé

  • "Warm" (chaud) : toujours demandé, malgré l'absence de mise à jour

  • "Cold/Frozen" (froid/glacé) : aucune mise à jour et presque jamais demandé (la recherche est possible, mais plus lente)

  • "Delete" (supprimer) : l'index n'est plus nécessaire

Architecture hot-warm

L'architecture hot-warm sépare un déploiement Elasticsearch en nœuds de données dits "hot" et "warm". En utilisant ces deux types de nœuds de concert, vos données entrantes peuvent être recherchées tout en étant conservées pendant plus longtemps.

Découvrir l'implémentation hot-warm
  • Les nœuds de données "hot" gèrent les données entrantes et possèdent une capacité de stockage plus rapide.

  • Les nœuds de données warm, quant à eux, présentent une plus grande densité de stockage et s'avèrent plus rentables pour le stockage des données à long terme.

Gel des index

Les index Elasticsearch conservent certaines structures de données en mémoire pour vous permettre de les rechercher de manière efficace et d'indexer. Pour réduire l'utilisation de la mémoire (et diminuer les coûts opérationnels), Elasticsearch peut conserver des données qui ne sont pas fréquemment utilisées dans des index gelés qui ne sont pas conservés en mémoire. Lorsqu'on les demande, ils sont temporairement chargés en mémoire avant d'être relâchés une fois que la recherche est terminée.

Découvrir les index gelés

Sauvegarder et restaurer

Un instantané est une sauvegarde d'un cluster Elasticsearch en cours d'exécution. Vous pouvez créer un instantané soit d'index individuels, soit de tout le cluster, et stocker cet instantané dans un référentiel dans un système de fichier partagé. Des plug-ins qui prennent également en charge les référentiels distants sont disponibles.

Découvrir la fonction sauvegarder et restaurer

Instantanés de source

Un référentiel de source vous permet de créer des instantanés minimaux de la source, qui occupent jusqu'à 50 % d'espace disque. Les instantanés de source contiennent les champs stockés et les métadonnées d'index. Ils ne comprennent pas les structures de valeurs des index ou des documents et on ne peut pas y faire des recherches lorsqu'on les restaure.

Découvrir les instantanés de source

Gestion du cycle de vie des snapshots

En tant que gestionnaires d'instantanés d'arrière-plan, les API "Snapshot Lifecycle Management" (SLM) permettent aux administrateurs de définir la fréquence à laquelle sont effectués les instantanés d'un cluster Elasticsearch. Grâce à l'interface utilisateur SLM dédiée, les utilisateurs peuvent configurer les règles de conservation applicables à SLM, mais aussi créer, planifier et supprimer automatiquement des instantanés. Cela assure que pour un cluster donné, les sauvegardes nécessaires sont effectuées à une fréquence suffisante pour permettre une restauration conforme aux SLA du client.

Découvrir SLM

Cumul de données

Conserver les données historiques pour les analyser est extrêmement utile, mais il s'agit de quelque chose qu'on évite souvent en raison du coût financier associé à l'archivage de quantités astronomiques de données. Par conséquent, les périodes de conservation sont influencées par les réalités financières plutôt que par l'utilité d'avoir à disposition une quantité importante de données historiques. La fonctionnalité de cumul vous donne le moyen de résumer et stocker les données historiques pour pouvoir les analyser, mais pour seulement une fraction du coût de stockage des données brutes.

Découvrir les cumuls

Outils CLI

Elasticsearch fournit plusieurs outils qui permettent de configurer la sécurité et de réaliser d'autres tâches par le biais de lignes de commande.

Explorer les outils CLI

Interface utilisateur de l'assistant de mise à niveau

L'interface utilisateur de l'assistant de mise à niveau vous aide à préparer votre mise à niveau vers la version la plus récente de la Suite Elastic. Dans l'interface utilisateur, l'assistant identifie les paramètres dépréciés dans votre cluster et dans vos index et vous guide tout au long du processus de résolution de problèmes, y compris la réindexation.

Découvrir l'assistant de mise à jour

API d'assistant de mise à jour

L'API d'assistant de mise à jour vous permet de consulter le statut de mise à jour de votre cluster Elasticsearch et de réindexer les index créés dans la version majeure précédente. L'assistant vous aide à vous préparer pour la prochaine version majeure d'Elasticsearch.

Découvrir l'API d'assistant de mise à jour

Gestion des utilisateurs et des rôles

Créez et gérez les utilisateurs et les rôles par le biais d'un API ou depuis l'application Management de Kibana.

Découvrir la gestion d'utilisateur/de rôle

Transformations

Les transformations sont des structures de données tabulaires bidimensionnelles qui rendent les données indexées plus faciles à assimiler. Elles réalisent des agrégations qui réorganisent vos données dans un nouvel index centré sur les entités. Une fois les données transformées et résumées, il devient possible de les visualiser et de les analyser différemment. Par exemple, elles peuvent servir de source lors d'une prochaine analyse de Machine Learning.

Découvrir les transformations

Gestion et opérations

Alerting

Avec les fonctionnalités Alerting de la Suite Elastic, toute la puissance du langage de requête d'Elasticsearch est entre vos mains : vous pouvez ainsi identifier les modifications apportées aux données qui vous intéressent. En d'autres termes, tout ce que vous pouvez rechercher dans Elasticsearch peut aussi faire l'objet d'une alerte.

Alerting hautement disponible et évolutif

Ce n'est pas par hasard que les organisations de toutes tailles font confiance à la Suite Elastic pour gérer leurs besoins d'alerte. En ingérant de manière fiable et sécurisée les données de toutes les sources, dans tous les formats, les analystes peuvent faire des recherches, analyser, et visualiser des données clés en temps réel ; tout cela avec un système d'alerte fiable et personnalisé.

En savoir plus sur Alerting

Notifications par e-mail, Slack, PagerDuty ou webhooks

Nous aimons vous laisser le choix. Et les notifications ne dérogent pas à cette règle. Différentes options d'alerte sont disponibles, avec des outils d'intégration embarqués pour PagerDuty, Slack, ou encore les e-mails. À vous de choisir celles qui vous conviennent le mieux. Une sortie de webhook toute en puissance s'intègre parfaitement avec votre infrastructure de monitoring existante ou avec n'importe quel système tiers.

En savoir plus sur les options de notification d'alerte

Interface utilisateur d'Alerting

Contrôlez toutes vos alertes de A à Z via une seule et même interface utilisateur, qui vous permet de les créer, de les visualiser et de les gérer. De plus, grâce à des mises à jour en temps réel, plus rien ne vous échappe : vous connaissez les alertes en cours et les actions entreprises.

En savoir plus sur la configuration d'alertes dans Kibana

Gestion et opérations

Sécurité de la Suite

Les fonctionnalités Security de la Suite Elastic accordent aux utilisateurs les droits d'accès appropriés. Les équipes informatiques, opérationnelles, et celles en charge des applications peuvent s'appuyer sur ces fonctionnalités pour gérer les utilisateurs bien intentionnés et repousser les acteurs malveillants. La direction et les clients sont plus zen : les données stockées dans la Suite Elastic sont totalement sécurisées.

Paramètres sécurisés

Certains paramètres sont sensibles. Se fier aux seules autorisations des systèmes de fichiers pour protéger leurs valeurs est insuffisant. Les composants de la Suite Elastic proposent donc des magasins de clés pour empêcher les accès non autorisés aux paramètres sensibles du cluster. Et pour encore plus de sécurité, vous avez aussi la possibilité de protéger les magasins de clés Elasticsearch et Logstash par mot de passe.

En savoir plus sur les paramètres sécurisés

Communications chiffrées

Les attaques réseau sur les données de nœud Elasticsearch peuvent être contrées grâce au chiffrement du trafic à l'aide du protocole SSL/TLS, de certificats d'authentification de nœud, et autres.

Découvrir le chiffrement des communications

Prise en charge du chiffrement au repos

Bien que la suite Elastic ne mette pas en place le chiffrement au repos de base, nous vous recommandons de configurer un chiffrement au niveau du disque dur sur l'ensemble des machines hôtes. De plus, les cibles instantanées doivent aussi assurer le chiffrement des données au repos.

Contrôle d'accès basé sur les rôles (RBAC)

Le contrôle d'accès basé sur les rôles (RBAC) vous permet d'accorder des autorisations à certains utilisateurs en attribuant des privilèges à certains rôles et en attribuant des rôles à des utilisateurs ou des groupes.

Découvrir le RBAC

Contrôle d'accès basé sur les attributs (ABAC)

Les fonctionnalités de sécurité de la Suite Elastic fournissent également un mécanisme de contrôle d'accès basés sur les attributs (ABAC) qui vous permet d'utiliser les attributs pour restreindre l'accès aux documents dans les requêtes de recherche et les agrégations. Cela vous permet de mettre une règle d'accès en place dans une définition de rôle pour que les utilisateurs ne puissent lire un document spécifique que s'ils ont les attributs requis.

Découvrir l'ABAC

Sécurité aux niveaux des champs et des documents

La sécurité au niveau des champs restreint les champs auxquels les utilisateurs peuvent accéder en lecture. En particulier, elle restreint les champs auxquels on peut accéder depuis des API de lecture qui se basent sur les documents.

Découvrir la sécurité au niveau des champs

La sécurité au niveau des documents restreint les documents auxquels les utilisateurs peuvent accéder en lecture. En particulier, elle restreint les documents auxquels on peut accéder depuis des API de lecture qui se basent sur les documents.

Découvrir la sécurité au niveau des documents

Logging d'audit

Vous pouvez activer les audits pour suivre les événements de sécurité comme les échecs d'authentification et les connexions refusées. Le logging de ces événements vous permet de monitorer votre cluster à la recherche d'activité suspicieuse et vous fournit des preuves en cas d'attaque.

Découvrir le logging d'audit

Filtrage IP

Vous pouvez appliquer un filtrage IP aux clients d'application, de nœud et de transport, en plus d'autres nœuds qui tentent de rejoindre le cluster. Si l'adresse IP d'un nœud se trouve sur la liste noire, les fonctionnalités de sécurité d'Elasticsearch autorisent la connexion à Elasticsearch, mais celle-ci est abandonnée immédiatement et aucune requête n'est traitée.

Adresse IP ou ensemble

xpack.security.transport.filter.allow: "192.168.0.1"
xpack.security.transport.filter.deny: "192.168.0.0/24"

Whitelist

xpack.security.transport.filter.allow: [ "192.168.0.1", "192.168.0.2", "192.168.0.3", "192.168.0.4" ]
xpack.security.transport.filter.deny: _all

IPv6

xpack.security.transport.filter.allow: "2001:0db8:1234::/48"
xpack.security.transport.filter.deny: "1234:0db8:85a3:0000:0000:8a2e:0370:7334"

Hostname

xpack.security.transport.filter.allow: localhost
xpack.security.transport.filter.deny: '*.google.com'
Découvrir le filtrage IP

Domaines de sécurité

Les fonctionnalités de sécurité de la Suite Elastic authentifient les utilisateurs à l'aide de domaines et d'un ou plusieurs services d'authentification par token. On utilise les domaines pour résoudre et authentifier les utilisateurs en fonction de tokens d'authentification. Les fonctionnalités de sécurité fournissent plusieurs domaines intégrés.

Découvrir les domaines de sécurité

Authentification unique (SSO)

La Suite Elastic prend en charge l'authentification unique (SSO) SAML dans Kibana, en utilisant Elasticsearch comme service back-end. L'authentification SAML permet aux utilisateurs de se connecter à Kibana à l'aide d'un fournisseur d'identité externe, comme Okta ou Auth0.

Découvrir la SSO

Intégrations tierces de sécurité

Si vous utilisez un système d'authentification non pris en charge dès le départ avec les fonctionnalités de sécurité de la Suite Elastic, vous pouvez créer un domaine personnalisé pour authentifier les utilisateurs.

Découvrir la sécurité tierce

Mode FIPS 140-2

Elasticsearch propose un mode compatible FIPS 140-2 qui peut s'exécuter dans une JVM activée. Les algorithmes cryptographiques agréés FIPS/recommandés par NIST garantissent le respect des normes de traitement.

Découvrir la compatibilité FIPS 140-2

Section 508

Si vous avez besoin que le déploiement de votre Suite Elastic respecte les normes de conformité à la section 508, les fonctionnalités de sécurité s'en chargent.

Découvrir les normes de conformité

Standards (GDPR)

Il y a de grandes chances que vos données soient classifiées comme données à caractère personnel par les directives du règlement général sur la protection des données (RGPD). Découvrez comment vous pouvez utiliser les fonctionnalités de la Suite Elastic ; du contrôle d'accès basé sur les rôles au chiffrement des données ; pour mettre vos données Elasticsearch en conformité avec les exigences de sécurité et de traitement du RGPD.

Lire le livre blanc du RGPD

Gestion et opérations

Déploiement

Cloud public, cloud privé, ou quelque part entre les deux. Quel que soit le cas de figure, nous vous facilitons l'exécution et la gestion de la Suite Elastic.

Téléchargement et installation

Pour se lancer, c'est toujours aussi simple : il vous suffit de télécharger et d'installer Elasticsearch et Kibana sous forme d'archive ou via un gestionnaire de package. Vous serez prêt à indexer, analyser et visualiser vos données en moins de temps qu'il n'en faut pour le dire. Et avec la distribution par défaut, vous pouvez aussi essayer des fonctionnalités Platinum comme Machine Learning, Security, ou encore l'analyse de graphes – tout cela, gratuitement, pour une période de 30 jours.

Télécharger la Suite Elastic

Elastic Cloud

Notre famille d'offres SaaS toujours en expansion, Elastic Cloud, facilite le déploiement, l'utilisation et le scalage des produits et des solutions Elastic dans le cloud. Sautez sur le tremplin d'Elastic Cloud pour mettre Elastic à profit pour vous avec fluidité, grâce à l'expérience Elasticsearch facile à utiliser, hébergée et gérée et aux solutions de recherche qui sortent du lot. Essayez un produit Elastic Cloud gratuitement pendant 14 jours, sans carte de crédit.

Lancez-vous dans Elastic Cloud

Elastic Cloud Enterprise

Avec Elastic Cloud Enterprise (ECE), provisionnez, gérez et monitorez Elasticsearch et Kibana depuis une seule et même console. Et ce, quelles que soient votre infrastructure ou la taille de votre déploiement. Vous vous demandez où exécuter Elasticsearch et Kibana ? Bonne nouvelle : vous avez l'embarras du choix. Matériel physique, environnement virtuel, cloud privé, zone privée au sein d'un cloud public, ou encore cloud public (Google, Azure ou AWS, pour ne citer que ceux-là). À vous de choisir votre infrastructure.

Essayez ECE gratuitement pendant 30 jours

Elastic Cloud sur Kubernetes

Basé sur le modèle Kubernetes Operator, Elastic Cloud sur Kubernetes (ECK) vient étendre les fonctionnalités d'orchestration de base de Kubernetes, qui deviennent compatibles avec la configuration et la gestion d'Elasticsearch et Kibana sur Kubernetes. Avec Elastic Cloud sur Kubernetes, l'exécution d'Elasticsearch sur Kubernetes et les processus de déploiement, de mise à niveau, d'instantanés, de montée en charge, de haute disponibilité, de sécurité… Tout cela gagne en simplicité.

Déployez avec Elastic Cloud sur Kubernetes

Helm Charts

Avec l'offre officielle Helm Charts Elasticsearch et Kibana, offrez-vous un déploiement en quelques minutes.

Découvrir l'offre officielle Helm Charts d'Elastic

Conteneurisation de Docker

Exécutez Elasticsearch et Kibana sur Docker avec les conteneurs officiels du hub Docker.

Exécuter la Suite Elastic sur Docker

Gestion et opérations

Clients

La Suite Elastic vous permet de travailler avec les données en employant la méthode qui vous convient le mieux. Grâce à ses API RESTful, ses clients de langage, ou encore ses DSL performants (sans oublier SQL), elle rime avec flexibilité et élargit le champ des possibles.

API REST

Elasticsearch vous fournit un API REST basé sur le langage JSON complet et puissant, vous pouvez l'utiliser pour interagir avec votre cluster.

Découvrir l'API REST
  • Consultez la santé, l'état et les statistiques de votre cluster, de votre nœud et de votre index.

  • Gérez les données et les métadonnées de votre cluster, de votre nœud et de votre index.

  • Réalisez une opération CRUD (créer, lire, mettre à jour et supprimer) et recherchez des opérations dans vos index.

  • Exécutez des opérations de recherche avancées comme la pagination, le tri, le filtrage, le script, les agrégations et bien d'autres.

Clients de langage

Elasticsearch utilise des API RESTful et JSON standards. Nous créons et maintenons également des clients dans de nombreux langages tels que Java, Python, .NET, SQL et PHP. Et, notre communauté en a ajouté encore plus. À l'image d'Elasticsearch, ils sont simples à utiliser, leur utilisation est naturelle, et ils vous offrent une foule de possibilités.

Explorer les clients linguistiques disponibles

Console

Grâce à Console, l'un des outils de développement de Kibana, vous pouvez composer des requêtes et les envoyer vers Elasticsearch en employant une syntaxe de type cURL, et visualiser les réponses à vos requêtes.

Découvrir Console

Elasticsearch DSL

Elasticsearch fournit un Query DSL complet (langage spécifique à un domaine) qui se base sur le langage JSON pour définir les requêtes. Query DSL met à disposition des options de recherche puissantes pour la recherche full-text, y compris la correspondance de termes et de phrases, la correspondance partielle, les caractères génériques, les requêtes géographiques, et bien plus encore.

Découvrir Elasticsearch DSL
GET /_search
{
    "query": {
        "match" : {
            "message" : {
                "query" : "this is a test",
                "operator" : "and"
            }
        }
    }
}

Elasticsearch SQL

Elasticsearch SQL est une fonctionnalité qui permet d'exécuter les requêtes de type SQL en temps réel sur Elasticsearch. Tous les clients peuvent utiliser SQL pour rechercher et agréger des données nativement dans Elasticsearch, qu'il utilise l'interface REST, une ligne de commande ou JDBC.

Découvrir Elasticsearch SQL

Client JDBC

Le pilote JDBC Elasticsearch SQL est un pilote JDBC riche et ultracomplet pour Elasticsearch. Il s'agit d'un pilote de type 4, qui ne dépend donc pas d'une plateforme, fonctionne en autonomie, se connecte directement à la base de données et est écrit en Java. Il convertit les appels JDBC en Elasticsearch SQL.

Découvrir le client JDBC

Client OBDC

Le pilote ODBC Elasticsearch SQL est un pilote ODBC 3.80 riche en fonctionnalités pour Elasticsearch. Il s'agit d'un pilote au niveau cœur qui expose toutes les fonctionnalités accessibles à travers l'API ODBC SQL d'Elasticsearch et qui convertit les appels ODBC en Elasticsearch SQL.

Découvrir le client ODBC

Ingérer et enrichir

Ingérer et enrichir

Sources de données

Quel que soit le type de données que vous traitez, les agents Beats sont là pour les collecter. Déployés sur vos serveurs avec vos conteneurs ou comme fonctions, ils centralisent vos données dans Elasticsearch. Envie de monter en puissance de traitement ? Les agents Beats peuvent aussi transférer ces données vers Logstash, qui se charge de les transformer et de les analyser.

Systèmes d'exploitation

Collectez les données de votre framework d'audit Linux et monitorez l'intégrité de vos fichiers. Auditbeat transfère ces événements en temps réel vers la Suite Elastic en vue d'une analyse plus poussée.

Découvrir Auditbeat

Gardez un œil sur votre infrastructure Windows. Winlogbeat est un agent de transfert léger, qui diffuse en direct les logs d'événements Windows vers Elasticsearch et Logstash.

Découvrir Winlogbeat

Serveurs Web et proxys

Filebeat et Metricbeat proposent plusieurs méthodes de monitoring pour vos serveurs Web et vos serveurs proxy, y compris les modules et les tableaux de bord préconfigurés de Nginx, Apache, HAProxy, IIS et plus.

Explorer les modules Filebeat disponibles

Datastores et files d'attente

Filebeat et Metricbeat comprennent des modules internes qui simplifient la collecte, l'analyse et la visualisation des formats de log communs et des indicateurs système en provenance des datastores, des bases de données et des systèmes de file d'attente comme MySQL, MongoDB, PostgreSQL, Microsoft SQL, et plus.

Explorer les modules Metricbeat disponibles

Services cloud

Les architectures sans serveur comme AWS Lambda vous permettent de déployer du code sans nécessiter le déploiement d'aucun autre logiciel ou matériel sous-jacent. Functionbeat apporte cette simplicité aux infrastructures cloud de monitoring, y compris les logs de Kinesis, SQS et CloudWatch.

Découvrir Functionbeat

Conteneurs et orchestration

Monitorez vos logs d'application, gardez un œil sur vos événements et indicateurs Kubernetes, et analysez la performance des conteneurs Docker. Lancez des recherches et affichez des visualisations via une application conçue pour les opérations d'infrastructure.

Découvrir le monitoring de conteneur
  • Avec la fonctionnalité Autodiscover de Metricbeat et Filebeat, plus aucun changement dans votre environnement ne vous échappe.

  • Automatisez l'ajout de modules et de chemins de logs, et adaptez dynamiquement vos paramètres de monitoring grâce aux hooks d'API Docker et Kubernetes.

Données réseau

Avec les protocoles réseau comme HTTP, vous gardez un œil sur les latences et les erreurs applicatives, les temps de réponse, la performance des SLA, les modèles et tendances associées aux accès utilisateurs, et plus encore. Packetbeat vous permet justement d'exploiter ces données et de les analyser en temps réel. Objectif : comprendre le trafic de votre réseau.

Découvrir Packetbeat

Données de sécurité

Les menaces peuvent venir de partout. Il est donc important d'avoir une vision globale de ce qui se passe dans tous vos systèmes en temps réel. Les agents Beats proposent plusieurs modules pour Zeek, Suricata et autres pour vous aider à capturer ces données.

Protéger vos données avec Elastic SIEM

Données de disponibilité

Que vous testiez un service local ou sur le Web, Heartbeat vous permet de générer les données de disponibilité et de temps de réponse avec une facilité déconcertante.

Découvrir Heartbeat

Importation de fichiers

Grâce à File Data Visualizer, vous pouvez charger un fichier CSV, NDJSON ou log dans un index Elasticsearch. File Data Visualizer utilise l'API de structure de fichier pour identifier le format du fichier et les mappings de champ. Vous pouvez ensuite choisir d'importer les données dans un index.

Découvrir l'importation de données de fichier

Ingérer et enrichir

Enrichissement des données

La Suite Elastic convertit les données brutes en précieuses informations grâce à des analyseurs, un générateur de tokens, des filtres et des options d'enrichissement au moment de l'indexation.

Processeurs

Utilisez un nœud d'ingestion pour pré-traiter les documents avant de réellement les indexer. Le nœud d'ingestion intercepte les groupes et indexe les requêtes, applique les transformations, puis renvoie les documents à l'index ou aux API Bulk. Le nœud d'ingestion comprend plus de 25 processeurs, y compris "append" (ajouter), "convert" (convertir), "date" (dater), "dissect" (disséquer), "drop" (abandonner), "fail" (échouer), "grok", "join" (joindre), "remove" (supprimer), "set" (définir), "split" (découper), "sort" (trier), "trim" (simplifier), et bien plus.

Découvrir les processeurs d'ingestion

Analyseurs

L'analyse consiste en un processus de conversion du texte, comme le corps d'un e-mail, en tokens ou en termes qui sont ensuite ajoutés à un index inversé pour la recherche. Cette analyse est réalisée par un analyseur qui peut être intégré ou personnalisé et défini par index à l'aide d'une combinaison de générateurs de tokens et de filtres.

Découvrir les analyseurs de données

Exemple : analyseur standard (par défaut)

Entrée : "Les deux renards bruns RAPIDES sautent au-dessus de l'os du chien fainéant."

Sortie : les deux renards bruns rapides sautent au-dessus de l'os du chien fainéant

Générateur de tokens

Un générateur de tokens reçoit un flux de caractères, le divise en tokens (généralement en mots), et sort un flux de tokens. Le générateur de tokens se charge également de l'enregistrement de l'ordre ou de la position de chaque terme (utilisé pour les recherches de proximité de mots et de phrases) ainsi que des décalages de caractère de début et de fin du mot d'origine que le terme représente (utilisés pour mettre en évidence des extraits de recherche). Elasticsearch est doté de plusieurs générateurs de tokens intégrés que vous pouvez utiliser pour construire des analyseurs personnalisés.

Découvrir les générateurs de tokens

Exemple : Générateur de tokens de caractères blancs

Entrée : "Les deux renards bruns RAPIDES sautent au-dessus de l'os du chien fainéant."

Sortie : Les deux renards bruns RAPIDES sautent au-dessus de l'os du chien fainéant.

Filtres

Les filtres de tokens prennent en charge un flux de tokens en provenance d'un générateur de tokens et peuvent modifier les tokens (par exemple les mettre en minuscules), les supprimer (par exemple éliminer les mots non significatifs), ou en ajouter (par exemple des synonymes). Elasticsearch est doté de plusieurs filtres de tokens intégrés que vous pouvez utiliser pour construire des analyseurs personnalisés.

Découvrir les filtres de tokens

Vous pouvez utiliser les filtres de caractères pour prétraiter le flux de caractères avant qu'il passe dans le générateur de tokens. Un filtre de caractères reçoit le texte d'origine sous forme de flux de caractère et peut transformer le flux en ajoutant, en éliminant ou en modifiant des caractères. Elasticsearch est doté de plusieurs filtres de caractères intégrés que vous pouvez utiliser pour construire des analyseurs personnalisés.

Découvrir les filtres de caractères

Analyseurs linguistiques

Effectuez des recherches dans votre langue. Elasticsearch propose plus de 30 analyseurs linguistiques différents, y compris plusieurs langues utilisant des caractères non latins comme le russe, l'arabe et le chinois.

Explorer les filtres linguistiques disponibles

Grok

Un modèle grok est similaire à une expression régulière qui prend en charge les alias d'expressions qui peuvent être réutilisés. Utilisez Grok pour extraire des champs structurés d'un champ textuel dans un document. Cet outil convient parfaitement pour les logs Syslog, les logs de serveur Web comme Apache, les logs MySQL et tous les formats de log qui sont généralement écrits pour les utilisateurs plutôt que pour les machines.

Découvrir Grok

Transformation de champ

Si vous utilisez des flux de données, vous pouvez ajouter des scripts pour transformer vos données avant de les analyser. Les flux de données contiennent une propriété "script_fields" en option, qui vous permet de spécifier des scripts qui évaluent des expressions personnalisées et d'afficher les champs de script. Vous pouvez effectuer plusieurs types de transformations avec cette fonctionnalité.

Découvrir la transformation de champ
  • Ajout de champs numériques

  • Concaténation, simplification et transformation des chaînes

  • Remplacement de tokens

  • Mise en correspondance et concaténation d'expressions régulières

  • Division des chaînes par nom de domaine

  • Transformation des données geo_point

Recherches externes

Enrichissez vos données de log au moment de l'ingestion avec les plug-ins de recherche externe de Logstash. Complétez facilement les lignes de log et donnez-leur plus de contexte avec des informations comme l'emplacement IP du client, les résultats de recherche DNS ou encore les données provenant de lignes de log adjacentes. Logstash est doté de plusieurs plug-ins de recherche parmi lesquels vous pouvez choisir.

Découvrir les recherches externes de Logstash

Processeur d'enrichissement Match

Le processeur d'ingestion Match permet aux utilisateurs d'interroger leurs données au moment de l'ingestion et leur indique l'index depuis lequel ils peuvent extraire des données enrichies. Très utile pour les utilisateurs Beats qui doivent ajouter quelques éléments à leurs données : plutôt que de passer de Beats à Logstash, ils peuvent directement consulter le pipeline d'ingestion. Grâce au processeur, ils sont aussi en mesure de normaliser les données pour améliorer leurs analyses et traiter les requêtes courantes.

Découvrir le processeur d'enrichissement Match

Processeur d'enrichissement Geo-match

Aussi utile que pratique, le processeur d'enrichissement Geo-match permet aux utilisateurs de booster leurs fonctionnalités de recherche et d'agrégation grâce à leurs données géographiques. Le tout, sans devoir définir de requêtes ou d'agrégations en termes de coordonnées géographiques. Comme avec le processeur d'enrichissement Match, les utilisateurs peuvent interroger leurs données au moment de l'ingestion et rechercher l'index optimal depuis lequel ils peuvent extraire des données enrichies.

Découvrir le processeur d'enrichissement Geo-match

Ingérer et enrichir

Modules et intégrations

Ingérez vos données dans la Suite Elastic comme bon vous semble. API RESTful, clients de langage, nœuds d'ingestion, agents de transfert légers ou Logstash... À vous de choisir. La liste de langages n'est pas limitée et comme nous avons fait le choix de l'open source, vous pouvez ingérer n'importe quel type de données. Si vous n'avez qu'un seul type de données à transférer, nous vous fournissons les bibliothèques et vous indiquons les étapes à suivre pour créer vos propres méthodes d'ingestion. Si vous le souhaitez, vous pouvez même les partager avec la communauté pour que les utilisateurs qui exploitent le même type de données n'aient pas besoin de réinventer la roue.

Clients et API

Elasticsearch utilise des API RESTful et JSON standards. Nous créons et maintenons également des clients dans de nombreux langages tels que Java, Python, .NET, SQL et PHP. Et, notre communauté en a ajouté encore plus. À l'image d'Elasticsearch, ils sont simples à utiliser, leur utilisation est naturelle, et ils vous offrent une foule de possibilités.

Explorer les clients et les API linguistiques disponibles

Nœud d'ingestion

Elasticsearch propose plusieurs types de nœuds, et l'un d'eux sert spécifiquement à ingérer des données. Les nœuds d'ingestion peuvent exécuter des pipelines de prétraitement, qui se composent d'un processeur d'ingestion ou plus. En fonction du type d'opération réalisé par les processeurs d'ingestion et des ressources nécessaires, cela peut être utile de dédier des nœuds d'ingestion à la réalisation de cette tâche.

Découvrir les nœuds d'ingestion

Beats

Les agents Beats sont des agents de transfert de données open source que vous pouvez installer sur vos serveurs pour envoyer des données opérationnelles à Elasticsearch ou Logstash. Elastic vous fournit des agents Beats qui permettent de capturer plusieurs types de logs communs, d'indicateurs et d'autres types de données.

Découvrir les agents Beats

Agents de transfert communautaire

Si vous avez besoin de résoudre un cas d'utilisation spécifique, nous vous encourageons à créer un agent Beat communautaire. Nous avons créé une infrastructure pour simplifier le processus. La bibliothèque libbeat, écrite entièrement en Go, propose l'API que tous les agents Beats utilisent pour transférer des données vers Elasticsearch, configurer les options d'entrée, implémenter des loggings, et plus.

Lire le guide du développeur des agents Beats

Avec presque 100 agents Beats partagés par la communauté, il existe des agents pour les logs et les indicateurs de Cloudwatch, les activités de GitHub, les sujets Kafka, MySQL, MongoDB Prometheus, Apache, Twitter, et bien plus encore.

Consulter les agents Beats développés par la communauté disponibles

Logstash

Logstash est un moteur de collecte de données open source doté de capacités pipeline en temps réel. Logstash peut rassembler de manière dynamique les données provenant de plusieurs sources et les normaliser vers les destinations de votre choix. Nettoyez et démocratisez toutes vos données pour plusieurs cas d'utilisation d'analytique et de visualisation en aval.

Découvrir Logstash

Plug-ins Logstash

Vous pouvez ajouter vos propres plug-ins d'entrée, codec, de filtre ou de sortie à Logstash. Vous pouvez développer et déployer ces plug-ins indépendamment du cœur de Logstash. Vous pouvez également écrire votre propre plug-in Java et l'utiliser dans Logstash.

Découvrir comment contribuer à Logstash

Elasticsearch-Hadoop

Elasticsearch pour Apache Hadoop (Elasticsearch-Hadoop ou ES-Hadoop) est une petite bibliothèque open source, indépendante et auto-contenue qui permet aux tâches Hadoop d'interagir avec Elasticsearch. Utilisez-la pour développer des applications de recherche intégrées et dynamiques pour traiter vos données Hadoop ou lancer des analyses complexes à faible latence, s'appuyant sur des agrégations, des requêtes full-text ou des requêtes géospatiales.

Découvrir ES-Hadoop

Plug-ins et intégrations

Comme Elasticsearch est une application open source compatible avec tous les langages, vous pouvez facilement augmenter ses fonctions avec des plug-ins et des intégrations. Grâce aux plug-ins, vous avez une façon personnalisée d'améliorer les fonctionnalités principales d'Elasticsearch. Les intégrations sont des outils externes ou des modules qui facilitent le travail avec Elasticsearch.

Explorer les plug-ins Elasticsearch disponibles
  • Plug-ins d'extension d'API

  • Plug-ins Alerting

  • Plug-ins d'analyse

  • Plug-ins de découverte

  • Plug-ins d'ingestion

  • Plug-ins de gestion

  • Plug-ins Mapper

  • Plug-ins de sécurité

  • Plug-ins de référentiel d'instantané/de restauration

  • Plug-ins de stockage

Ingérer et enrichir

Gestion

Gérez vos méthodes d'ingestion depuis des emplacements centralisés dans Kibana.

Gestion centrale des agents Beats

La gestion centrale des agents Beats réduit sensiblement la dépendance aux outils de gestion de configuration externes, permet de modifier la configuration des agents Beats afin de les gérer directement dans la Suite Elastic, et déploie les modifications dans toute la flotte d'agents Beats.

Découvrir la gestion centrale des agents Beats

Gestion centralisée du pipeline Logstash

Contrôlez plusieurs instances Logstash à partir de l'interface utilisateur de gestion de pipeline dans Kibana. Du côté de Logstash, activez simplement la gestion de la configuration et paramétrez Logstash pour qu'il utilise les configurations de pipeline gérées de manière centrale.

Découvrir la gestion centralisée du pipeline Logstash

Stockage de données

Stockage de données

Flexibilité

La Suite Elastic est une solution ultraperformante, capable de répondre à quasiment tous les cas d'utilisation. Bien qu'elle soit surtout connue pour ses capacités de recherche avancée, sa conception flexible en fait un outil parfaitement adapté à différents besoins, comme le stockage de documents, l'analyse de séries temporelles et d'indicateurs, ou encore l'analyse géospatiale.

Types de données

Elasticsearch est compatible avec différents types de données pour les champs d'un document, et chacun de ces types de données présente plusieurs sous-types. Cela vous permet de stocker, d'analyser et d'utiliser vos données avec une efficacité et une efficience maximales, peu importe leur type. Voici quelques exemples de types de données pour lesquels Elasticsearch est optimisé :

Découvrir les types de données acceptés par Elasticsearch
  • Texte

  • Formes

  • Nombres

  • Vecteurs

  • Histogramme

  • Séries date/heure

  • Champ "flattened" (lissé)

  • Points géographiques/formes géométriques

  • Données non structurées (JSON)

  • Données structurées

Recherche full-text (index inversé)

Elasticsearch utilise une structure appelée index inversé et conçue pour faire des recherches full-text très rapides. Un index inversé se compose d'une liste des mots uniques qui apparaissent dans un document. Pour chaque mot, cet index comprend une liste de tous les documents dans lesquels il apparaît. Pour créer un index inversé, il faut tout d'abord diviser le champ de contenu de chaque document en mots séparés (qu'on appelle termes ou tokens), puis créer une liste triée de tous les termes uniques, et enfin lister dans quels documents chaque terme apparaît.

Découvrir les index inversés

Stockage de documents (données non structurées)

Avec Elasticsearch, les données ne doivent pas obligatoirement être structurées pour être ingérées ou analysées (bien que la structuration améliore la vitesse). Cette conception facilite le lancement et fait aussi d'Elasticsearch un espace de stockage de documents efficace. Même si Elasticsearch n'est pas une base de données NoSQL, il propose des fonctionnalités similaires.

Découvrir le mapping dynamique

Séries temporelles/analyse (structure en colonnes)

Un index inversé permet aux recherches de rapidement trouver des termes de recherche. Cependant, le tri et les agrégations requièrent un autre modèle d'accès aux données. Au lieu de rechercher le terme et de trouver des documents, elles doivent pouvoir rechercher le document et trouver les termes qu'il contient dans un champ. Les valeurs des documents sont la structure de données sur disque dans Elasticsearch. Elles sont créées au moment de l'indexation du document, ce qui signifie que ce modèle d'accès aux données est possible, et permet de faire des recherches en colonnes. Grâce à cela, Elasticsearch excelle dans l'analyse des indicateurs et des séries temporelles.

Découvrir les valeurs de documents

Géospatial (arborescence BKD)

Elasticsearch utilise l'arborescence BKD dans Lucene pour stocker les données géospatiales. Cela permet d'analyser de manière efficace les points géographiques (latitude et longitude) et les formes géométriques (rectangles et polygones).

Stockage de données

Sécurité

Elasticsearch est compatible avec différentes méthodes qui permettent de veiller à ce que vos données ne tombent pas entre de mauvaises mains.

Prise en charge du chiffrement des données au repos

Bien que la suite Elastic ne mette pas en place le chiffrement au repos de base, nous vous recommandons de configurer un chiffrement au niveau du disque dur sur l'ensemble des machines hôtes. De plus, les cibles instantanées doivent aussi assurer le chiffrement des données au repos.

Sécurité d'API aux niveaux des champs et des documents

La sécurité au niveau des champs restreint les champs auxquels les utilisateurs peuvent accéder en lecture. En particulier, elle restreint les champs auxquels on peut accéder depuis des API de lecture qui se basent sur les documents.

Découvrir la sécurité au niveau des champs

La sécurité au niveau des documents restreint les documents auxquels les utilisateurs peuvent accéder en lecture. En particulier, elle restreint les documents auxquels on peut accéder depuis des API de lecture qui se basent sur les documents.

Découvrir la sécurité au niveau des documents

Stockage de données

Gestion

Elasticsearch vous permet de gérer entièrement vos clusters et leurs nœuds, vos index et leurs partitions, sans oublier l'essentiel : l'intégralité des données qu'ils contiennent.

Index groupés

Un cluster est un ensemble d'un ou plusieurs nœuds (serveurs) qui stockent toutes vos données et vous permet d'indexer et de rechercher des données dans l'ensemble des nœuds. Grâce à cette structure, vous pouvez facilement scaler horizontalement. Elasticsearch vous fournit un API REST complet et puissant ainsi que des interfaces utilisateur, vous pouvez l'utiliser pour gérer vos clusters.

Découvrir les index groupés

Sauvegarder et restaurer des données

Un instantané est une sauvegarde d'un cluster Elasticsearch en cours d'exécution. Vous pouvez créer un instantané soit d'index individuels, soit de tout le cluster, et stocker cet instantané dans un référentiel dans un système de fichier partagé. Des plug-ins qui prennent également en charge les référentiels distants sont disponibles.

Découvrir la fonction sauvegarder et restaurer

Instantanés de données sources

Un référentiel de source vous permet de créer des instantanés minimaux de la source, qui occupent jusqu'à 50 % d'espace disque. Les instantanés de source contiennent les champs stockés et les métadonnées d'index. Ils ne comprennent pas les structures de valeurs des index ou des documents et on ne peut pas y faire des recherches lorsqu'on les restaure.

Découvrir les instantanés de source

Index de cumul

Conserver les données historiques pour les analyser est extrêmement utile, mais il s'agit de quelque chose qu'on évite souvent en raison du coût financier associé à l'archivage de quantités astronomiques de données. Par conséquent, les périodes de conservation sont influencées par les réalités financières plutôt que par l'utilité d'avoir à disposition une quantité importante de données historiques. La fonctionnalité de cumul vous donne le moyen de résumer et stocker les données historiques pour pouvoir les analyser, mais pour seulement une fraction du coût de stockage des données brutes.

Découvrir les cumuls

Rechercher et analyser

Rechercher et analyser

Recherche full-text

Elasticsearch est connu pour ses puissantes capacités de recherche full-text. Sa rapidité ? Il la doit à l'index inversé intégré au cœur du moteur de recherche. Sa puissance ? Il la tire de son score de pertinence ajustable, de son Query DSL avancé et d'une pléthore de fonctions qui vous permettent de booster la recherche.

Index inversé

Elasticsearch utilise une structure appelée index inversé et conçue pour faire des recherches full-text très rapides. Un index inversé se compose d'une liste des mots uniques qui apparaissent dans un document. Pour chaque mot, cet index comprend une liste de tous les documents dans lesquels il apparaît. Pour créer un index inversé, il faut tout d'abord diviser le champ de contenu de chaque document en mots séparés (qu'on appelle termes ou tokens), puis créer une liste triée de tous les termes uniques, et enfin lister dans quels documents chaque terme apparaît.

Découvrir les index inversés

Recherche inter-clusters

La fonctionnalité de recherche inter-clusters (CCS) permet à n'importe quel nœud de se comporter comme un client fédéré sur plusieurs clusters. Un nœud de recherche inter-cluster ne contacte pas le cluster distant. Il se connecte plutôt à un cluster distant de manière légère pour exécuter des recherches fédérées.

Découvrir la CCS

Score de pertinence

Une fonction de similarité (score de pertinence/modèle de classement) définit comment les documents correspondants sont notés. Par défaut, Elasticsearch utilise la similarité BM25, une similarité TF/IDF avancée qui est dotée d'une normalisation tf intégrée qui convient parfaitement pour les champs courts (comme les noms). Plusieurs autres options de similarité sont disponibles.

Découvrir les modèles de similarité

Query DSL

La recherche full-text requiert un langage de requête robuste. Elasticsearch fournit un Query DSL complet (langage spécifique à un domaine) qui se base sur le langage JSON pour définir les requêtes. Créez des requêtes simples pour faire correspondre des termes et des phrases, ou développez des requêtes composées qui peuvent combiner plusieurs requêtes. De plus, vous pouvez appliquer des filtres au moment de la requête pour éliminer des documents avant de leur attribuer des notes de pertinence.

Découvrir Query DSL d'Elasticsearch

Recherche asynchrone

L'API de recherche asynchrone vous permet d'exécuter en arrière-plan les requêtes qui prennent du temps. Vous pouvez en surveiller la progression et récupérer des résultats partiels à mesure qu'ils sont disponibles.

En savoir plus sur la recherche asynchrone

Surligneurs

Les surligneurs vous permettent de mettre en évidence des extraits d'un ou plusieurs champs dans vos résultats de recherche pour pouvoir montrer aux utilisateurs où se trouvent les correspondances de recherche. Lorsque vous demandez l'affichage des surlignages, la réponse contient un élément de surlignage supplémentaire pour chaque résultat de recherche comprenant les champs surlignés et les fragments surlignés.

Découvrir les surligneurs

Saisie semi-automatique (complétion automatique)

L'outil de suggestion de saisie semi-automatique vous fournit une fonctionnalité de complétion automatique/de recherche en cours de frappe. Il s'agit d'une fonctionnalité de navigation qui guide les utilisateurs vers des résultats pertinents en cours de frappe, ce qui améliore la précision de recherche.

Découvrir la saisie semi-automatique

Corrections (correcteur orthographique)

L'outil de suggestion de termes est à la racine du correcteur orthographique. Il suggère des termes en fonction de la distance d'édition. Le texte de suggestion fourni est analysé avant de suggérer des termes. Les termes suggérés sont fournis par tokens textuels de suggestion analysés.

Découvrir les corrections

Outil de suggestion (did-you-mean)

L'outil de suggestion de phrase ajoute une fonctionnalité did-you-mean à votre recherche en bâtissant une logique supplémentaire par-dessus l'outil de suggestion de terme pour sélectionner des phrases corrigées entières au lieu de tokens individuels pondérés sur la base de modèles de langage ngram. En pratique, cet outil de suggestion est capable de prendre de meilleures décisions quant aux tokens à sélectionner en fonction des co-occurrences et des fréquences.

Découvrir les outils de suggestion

Filtres

Les filtres retournent le modèle de recherche standard, où on utilise une recherche pour trouver un document stocké dans un index, et peuvent être utilisés pour faire correspondre des documents à des recherches stockées dans un index. La recherche de filtre en elle-même contient le document qui est utilisé comme recherche pour être associée aux recherches stockées.

Découvrir les filtres

Système de profilage/d'optimisation des requêtes

L'API de profilage fournit des informations de temporisation détaillées à propos de l'exécution de composants individuels dans une requête de recherche. Il permet de mieux comprendre comment les requêtes de recherche s'exécutent à bas niveau pour que vous puissiez comprendre pourquoi certaines requêtes sont lentes et prendre des mesures pour les améliorer.

Découvrir l'API de profilage

Résultats de recherche en fonction des autorisations

La sécurité au niveau des champs et la sécurité au niveau des documents restreint les résultats de recherche à ce à quoi les utilisateurs peuvent accéder en lecture. En particulier, elle restreint les champs et les documents auxquels on peut accéder depuis des API de lecture qui se basent sur les documents.

Annulation de requête

La fonctionnalité d'annulation de requête intégrée à Kibana s'avère très pratique lorsqu'il s'agit de réduire la charge de travail inutile pour limiter l'impact global imposé au cluster. L'annulation automatique de requêtes Elasticsearch a lieu lorsque les utilisateurs modifient ou mettent à jour leur recherche, ou qu'ils actualisent la page du navigateur.

Rechercher et analyser

Analytique

La recherche des données n'est que le début. Les puissantes fonctionnalités d'analyse de la Suite Elastic vous permettent de découvrir ce que veulent vraiment dire les données que vous avez recherchées et collectées. Que l'on parle de l'agrégation de résultats, de la découverte de relations entre des documents ou de la création d'alertes selon des valeurs de seuil, tout s'appuie sur une fonction de recherche performante.

Agrégations

L'architecture d'agrégations vous aide à obtenir des données agrégées à l'aide d'une requête de recherche. Elle se fonde sur de simples composantes de base appelées agrégations, que vous pouvez composer pour construire des résumés de données complexes. On peut voir une agrégation comme une unité de travail qui construit des informations analytiques à partir d'un ensemble de documents.

Découvrir les agrégations
  • Agrégations d'indicateurs

  • Agrégations d'intervalles

  • Agrégations de pipelines

  • Agrégations de matrices

Exploration de graphes

L'API d'exploration Graph vous permet d'extraire et de résumer des informations à propos des documents et des termes qui se trouvent dans votre index Elasticsearch. La meilleure façon de comprendre le comportement de cette API est d'utiliser Graph dans Kibana pour explorer les relations.

Découvrir l'API d'exploration Graph

Alertes de seuil

Créez des alertes de seuil pour vérifier de manière périodique quand les données de vos index Elasticsearch passent au dessus ou en dessous d'un certain seuil pendant une période donnée. Avec Alerting, toute la puissance du langage de requête d'Elasticsearch est entre vos mains : vous pouvez ainsi identifier les modifications apportées aux données qui vous intéressent.

En savoir plus sur les alertes de seuil

Rechercher et analyser

Machine Learning

Les fonctionnalités Machine Learning d'Elastic modélisent automatiquement le comportement de vos données Elasticsearch (tendances, périodicité, etc.). Le tout, en temps réel. Leur mission : identifier les problèmes plus rapidement, rationaliser l'analyse de la cause première et réduire le nombre de faux positifs.

Inférence

L’inférence vous permet d’utiliser des processus de Machine Learning supervisé, comme la régression ou la classification, pour réaliser notamment des analyses par lot. Vous pouvez aussi utiliser ces processus de manière continue. Avec l’inférence, il est possible d’appliquer des modèles entraînés de Machine Learning sur les données entrantes.

Découvrir l’inférence

Identification de la langue

L’identification de la langue est un modèle entraîné dont vous pouvez vous servir pour déterminer la langue d’un texte. Vous pouvez référencer le modèle d’identification de la langue dans un processeur d’inférence.

Découvrir l’identification de la langue

Prévisions relatives aux séries temporelles

Une fois que la fonctionnalité de Machine Learning d'Elastic a créé des points de comparaison de comportements normaux pour vos données, vous pouvez utiliser ces informations pour extrapoler les comportements futurs. Créez ensuite une prévision afin d'estimer une valeur temporelle à une date future spécifique ou pour estimer la probabilité d'occurrence d'une valeur temporelle dans le futur

Découvrir les prévisions

Détection des anomalies sur les séries temporelles

Les fonctionnalités de Machine Learning d'Elastic automatisent l'analyse des données temporelles en créant des points de comparaison précis de comportements normaux dans les données et en identifiant les modèles anormaux dans celles-ci. Les anomalies sont détectées, notées et liées à des influenceurs importants du point de vue statistique dans les données à l'aide d'algorithmes de machine learning propriétaires.

Découvrir la détection des anomalies temporelles
  • Les anomalies liées aux écarts temporels de valeurs, de nombres ou de fréquences

  • Rareté statistique

  • Les comportements inhabituels pour le membre d'une population

Alerting associé aux anomalies

Certaines modifications sont difficiles à définir au moyen de règles et de seuils. Dans ce cas, vous pouvez associer Alerting à des fonctionnalités de Machine Learning non supervisé qui vous permettent de détecter les comportements inhabituels. Ensuite, vous pouvez aussi recevoir des notifications en fonction des scores d'anomalies et lorsque des problèmes surviennent.

En savoir plus sur Alerting

Analyse de la population et de l'entité

Utilisez les fonctionnalités de Machine Learning d'Elastic pour créer un profil de ce qu'un utilisateur "type", une machine ou une autre entité réalise pendant une période donnée, puis pour identifier les anomalies où ils se comportent de manière anormale par rapport à la population.

Découvrir l'analyse de la population/de l'entité

Catégorisation des messages de log

Les événements log d'application ne sont souvent pas structurés et contiennent des données variables. Les fonctionnalités de Machine Learning d'Elastic observent la partie statique du message, regroupent les messages similaires et les classifient en catégories de messages.

Découvrir la catégorisation des messages de log

Indication de la cause première

Une fois une anomalie détectée, les fonctionnalités de Machine Learning d'Elastic facilitent l'identification des propriétés qui ont contribué à son apparition. Par exemple, en cas de baisse inhabituelle des transactions, vous pouvez rapidement identifier le serveur défaillant ou le commutateur mal configuré qui sont à l'origine du problème.

Découvrir l'indication de la cause première

File Data Visualizer (visualiseur de données pour les fichiers)

File Data Visualizer vous aide à mieux comprendre vos données Elasticsearch et à identifier les champs potentiels d'analyse Machine Learning en analysant les indicateurs et les champs dans un fichier de log ou dans un index existant.

Découvrir File Data Visualizer

Explorateur d'anomalies à plusieurs indicateurs

Créez des tâches de Machine Learning complexes avec plusieurs détecteurs. Utilisez l'explorateur d'anomalies pour consulter les résultats après qu'une tâche à plusieurs indicateurs ait analysé le flux d'entrée de données, modélisé son comportement et effectué une analyse en fonction des deux détecteurs que vous avez définis dans votre tâche.

Découvrir l'analyse de tâches à plusieurs indicateurs

API de détection des aberrations

La détection non supervisée des aberrations s'appuie sur quatre méthodes de machine learning basées sur la distance et la densité, qui lui permettent de découvrir des points de données inhabituels par rapport à la majorité. Pour créer des tâches d'analyse des trames de données pour la détection d'aberrations, utilisez l'API "Create data frame analytics jobs".

Découvrir l'API de détection des aberrations

Rechercher et analyser

Elastic APM

Vous hébergez déjà des logs et des indicateurs système dans Elasticsearch ? Allez plus loin grâce aux indicateurs de performance applicative d'Elastic APM. Quatre lignes de code et le tour est joué : vous avez une vue d'ensemble qui vous permet de corriger rapidement les erreurs. Et vous vous sentez plus confiant vis-à-vis du code que vous déployez.

Serveur APM

Le serveur APM reçoit des données provenant d'agents APM et les transforme en documents Elasticsearch. Pour cela, il expose un point de terminaison de serveur HTTP vers lequel les agents diffusent les données APM qu'ils ont collectées. Une fois que le serveur APM a validé et traité les événements des agents APM, il transforme les données en documents Elasticsearch et les stocke dans des index Elasticsearch correspondants.

Découvrir le serveur APM

Agents APM

Les agents APM sont des bibliothèques open source qui sont écrites dans le même langage que votre service. Vous pouvez les installer dans votre service de la même manière que vous installeriez n'importe quelle autre bibliothèque. Ils instrumentalisent votre code et collectent des données et des erreurs de performance au moment de l'exécution. Ces données sont mises en mémoire tampon pendant une courte période puis envoyées sur le serveur APM.

Découvrir les agents APM

Application APM

Trouver et fixer les problèmes de votre code revient à la recherche. Avec notre application APM dédiée dans Kibana, vous identifiez d'un coup d'œil les goulets d'étranglement et pouvez agir directement sur les changements problématiques au niveau du code. Résultat : le code gagne en qualité et en efficacité, vous accélérez le cycle développement-test-déploiement, et les applications sont plus performantes – ce qui débouche au final sur une meilleure expérience client.

Découvrir Elastic APM

Traçage distribué

Vous vous demandez comment vos requêtes circulent dans votre infrastructure ? Assemblez les transactions entre elles grâce au traçage distribué et visualisez les interactions entre vos services. Détectez le point où se produisent les problèmes de latence et localisez précisément les composants à optimiser.

Découvrir le traçage distribué

Intégration de l'alerting

Restez toujours informé des performances de votre code. Vous recevez une notification par e-mail dès qu'un problème se produit, ou une notification Slack lorsque tout se passe vraiment très bien.

En savoir plus sur Alerting

Intégration du Machine Learning

Créez une tâche de Machine Learning directement depuis l'application APM. Concentrez-vous rapidement sur les comportements anormaux grâce aux fonctionnalités de Machine Learning qui modélisent automatiquement vos données.

Découvrir l'intégration de ML dans APM

Explorer et visualiser

Explorer et visualiser

Visualisations

Transformez les données contenues dans vos index Elasticsearch en visualisations. Les visualisations Kibana s'appuient sur des requêtes Elasticsearch. Grâce à une série d'agrégations Elasticsearch qui vous permet d'extraire et de traiter vos données, vous pouvez créer des graphiques qui illustrent les tendances, les pics et les baisses que vous avez besoin de connaître.

Tableaux de bord

Un tableau de bord Kibana affiche une collection de visualisations et de recherches. Vous pouvez organiser, redimensionner et modifier le contenu du tableau de bord puis l'enregistrer pour pouvoir le partager. Vous pouvez créer des recherches personnalisées dans plusieurs tableaux de bord afin de fournir des chemins de filtrage et d’investigation faciles.

Découvrir les tableaux de bord dans Kibana

Canvas

Avec Canvas, découvrez une toute nouvelle manière de présenter vos données sous leur meilleur jour. Canvas combine vos données avec des couleurs, des formes, du texte et votre imagination pour proposer des présentations dynamiques, sur plusieurs pages et détaillées au pixel près, à toutes les tailles.

Découvrir Canvas

Kibana Lens

Facile à utiliser et intuitive, Kibana Lens est une interface utilisateur qui simplifie le processus de visualisation des données : un simple glisser-déposer et le tour est joué. Que vous ayez des milliards de logs à analyser ou des tendances à identifier à partir du trafic de votre site web, Lens vous permet de convertir vos données en informations exploitables en quelques clics. Et aucune expérience de Kibana n'est nécessaire.

Découvrir Kibana Lens

Constructeur visuel Time Series Visual Builder (TSVB)

Le TSVB utilise toute la puissance de l'architecture d'agrégations d'Elasticsearch et combine un nombre infini d'agrégations et d'agrégations de pipeline pour afficher les données complexes de façon significative.

Découvrir le TSVB

Analyse de graphes

Les fonctionnalités d'analyse de graphes vous permettent de découvrir comment les objets contenus dans un index Elasticsearch sont liés. Vous pouvez explorer les connexions entre les termes indexés et voir quelles connexions sont les plus importantes. Cela peut s'avérer utile dans plusieurs applications, de la détection de fraude aux moteurs de recommandation.

Découvrir l'analyse de graphes

Analyse des données géospatiales

"À quel endroit ?" Voilà une question stratégique pour bon nombre d'utilisateurs de la Suite Elastic. Qu'il s'agisse de protéger votre réseau contre des attaques, de comprendre pourquoi les temps de réponse d'une application sont plus longs dans certaines zones géographiques ou tout simplement de trouver un taxi, les données géographiques ainsi que la recherche jouent un rôle important.

Découvrir l'analyse de données géospatiales et les cartes

Monitoring de conteneur

Vos applications et votre environnement évoluent. La Suite Elastic aussi. Monitorez, recherchez et visualisez tout ce qui se passe au niveau de vos applications, de Docker et de Kubernetes, le tout depuis un seul et même emplacement.

Découvrir le monitoring de conteneur

Plug-ins Kibana

Ajoutez des fonctionnalités supplémentaires à Kibana grâce aux modules de plug-in créés par la communauté. Les plug-ins open source sont disponibles pour plusieurs applications, extensions, visualisations et bien plus encore. Les plug-ins comprennent :

Explorer les plug-ins Kibana disponibles
  • Visualisations Vega

  • Exportateur Prometheus

  • Graphiques 3D et graphes

  • Visualisations de calendrier

  • Et bien plus

Tutoriel relatif à l'importation des données

Grâce à notre tutoriel facile à suivre, apprenez à charger un ensemble de données dans Elasticsearch, à définir un modèle d'indexation, à découvrir et à explorer les données, à créer des visualisations et des tableaux de bord, et plus.

Découvrir le tutoriel d'importation de données

Explorer et visualiser

Partager et collaborer

En quelques clics, partagez vos visualisations Kibana avec vos collègues, votre manager, son supérieur, vos clients, les responsables de la conformité, les prestataires. Bref : avec qui vous voulez, vraiment. À vous de choisir l'option de partage qui vous convient. Intégrez un tableau de bord, partagez un lien ou exportez vos données aux formats PDF, PNG ou CSV, puis envoyez votre fichier par e-mail. Vous pouvez aussi organiser vos tableaux de bord et vos visualisations via Kibana Spaces.

Tableaux de bord incorporables

Depuis Kibana, vous pouvez facilement partager un lien direct vers un tableau de bord Kibana, ou intégrer le tableau de bord dans une page Web avec un iframe ; soit sous la forme d'un tableau de bord actualisé, soit sous la forme d'un instantané statique du moment actuel.

Découvrir l'intégration et le partage de tableaux de bord

Mode tableau de bord

Utilisez le rôle intégré "kibana_dashboard_only_user" pour restreindre ce que les utilisateurs voient lorsqu'ils se connectent à Kibana. Le rôle "kibana_dashboard_only_user" est préconfiguré pour être en lecture seule dans Kibana. Lorsque les utilisateurs ouvrent un tableau de bord, ils n'ont accès qu'à une expérience visuelle restreinte. L'ensemble des commandes de modification et de création sont cachées.

Découvrir le mode tableau de bord

Spaces

Grâce à Spaces dans Kibana, vous pouvez organiser vos tableaux de bord et autres objets enregistrés en catégories pertinentes. Une fois dans un espace spécifique, vous ne verrez que les tableaux de bord et les autres objets enregistrés qui y appartiennent. En activant la sécurité, vous pouvez contrôler quels utilisateurs ont accès aux espaces individuels, ce qui vous donne une couche de protection supplémentaire.

Découvrir Spaces

Rapports au format PDF/PNG

Générez rapidement des rapports à partir de n'importe quelle visualisation ou tableau de bord Kibana et sauvegardez-les au format PDF ou PNG. Rapports à la demande, rapports planifiés, rapports générés en fonction de certains événements… La fonctionnalité Reporting vous permet de faire tout cela et plus encore, comme partager automatiquement vos rapports avec vos collaborateurs.

Découvrir le reporting

Exportations CSV

Exportez les recherches enregistrées dans Discover vers des fichiers CSV pour les utiliser dans des éditeurs de texte externes.

Découvrir l'exportation de recherches sauvegardées

Explorer et visualiser

Elastic Maps

L'application Maps vous permet d'analyser vos données géographiques à grande échelle, rapidement, et en temps réel. Avec des fonctionnalités comme les couches et les index multiples intégrés à une carte, le tracé de documents bruts, les styles dynamiques côté client et la recherche globale sur plusieurs couches, comprendre vos données et les monitorer devient un jeu d'enfants.

Calques de carte

Avec l'application Maps de Kibana, ajoutez des calques distincts pour visualiser différents index dans une seule vue. Tous les calques étant affichés sur la même carte, vous pouvez aussi les interroger et les filtrer en temps réel. Parmi les options de calques, on trouve les calques choroplèthes, les calques thermiques, les calques de mosaïque, les calques de vecteur et même des calques spécifiques aux cas d’utilisation, comme l’observabilité pour les données APM.

Découvrir les calques de carte

Cartes régionales personnalisées

Créez des cartes régionales à l'aide des données géographiques personnalisées. Il s'agit de cartes thématiques sur lesquelles les formes vectorielles associées à un périmètre s'affichent en dégradé.

En savoir plus sur les cartes régionales

Elastic Maps Service (niveaux de zoom)

L'Elastic Maps Service soutient toutes les visualisations géospatiales dans Kibana (y compris l'application Maps) en fournissant des tuiles de fond de carte, des fichiers de forme, ainsi que des fonctionnalités clés qui sont essentielles pour visualiser des données géographiques. Avec la distribution par défaut de Kibana, vous pouvez zoomer jusqu'à 18 fois sur une carte.

Découvrir Elastic Maps Service

Importation de fichiers GeoJSON

Bien qu'elle soit simple et facile à utiliser, la fonctionnalité d'importation GeoJSON n'en est pas moins performante. Grâce à une ingestion directe vers Elasticsearch, cette fonctionnalité vous permet de faire glisser des fichiers GeoJSON enrichis de points, de formes et de contenu, pour les déposer sur une carte et les visualiser instantanément.

Découvrir l'importation de fichiers GeoJSON

Explorer et visualiser

Elastic Logs

Directement compatible avec les sources de données les plus courantes, la Suite Elastic intègre aussi des tableaux de bord par défaut qui vous permettent de démarrer sans attendre. Bref : nous avons tout fait pour vous faciliter la vie et vous offrir une expérience optimale. Transférez des logs avec Filebeat et Winlogbeat, indexez-les dans Elasticsearch – et visualisez le tout dans Kibana en quelques minutes.

Agent de transfert de logs (Filebeat)

Oubliez SSH. Avec Filebeat, dites oui à la simplicité : misez sur un agent de transfert léger qui vous permet de centraliser vos logs et vos fichiers. Filebeat intègre des modules internes (auditd, Apache, NGINX, System et MySQL, entre autres) qui simplifient la collecte, l'analyse et la visualisation des formats de logs les plus courants – le tout, via une seule commande.

Découvrir Filebeat

Tableaux de bord de logs

Des exemples de tableaux de bord Filebeat vous facilitent la tâche pour explorer les données de log dans Kibana. Commencez rapidement à utiliser ces tableaux de bord préconfigurés puis personnalisez-les selon vos besoins.

Découvrir les tableaux de bord de logs

Application Logs

L'application Logs fournit un suivi des logs en temps réel via un affichage compact et personnalisable. Les données de log sont ensuite corrélées aux indicateurs dans l'application Metrics, vous facilitant ainsi le diagnostic des problèmes.

Découvrir l'application Logs

Explorer et visualiser

Elastic Metrics

Avec Elastic Metrics, effectuez facilement le suivi d'indicateurs de haut niveau comme l'utilisation des processeurs, la charge système, l'utilisation de la mémoire et le trafic réseau. L'évaluation de l'intégrité globale de vos serveurs, de vos conteneurs et de vos services devient ainsi bien plus simple.

Agent de transfert d'indicateurs (Metricbeat)

Metricbeat est un agent de transfert léger que vous pouvez installer sur vos serveurs pour collecter des indicateurs qui proviennent du système d'exploitation et des services qui s'exécutent sur le serveur de manière périodique. Statistiques relatives au processeur, à la mémoire, à Redis ou NGINX, Metricbeat se charge du transfert léger des statistiques de vos systèmes et services.

Découvrir Metricbeat

Tableaux de bord d'indicateurs

Les exemples de tableaux de bord de Metricbeat vous facilitent la tâche pour commencer à monitorer vos serveurs dans Kibana. Commencez rapidement à utiliser ces tableaux de bord préconfigurés puis personnalisez-les selon vos besoins.

Découvrir les tableaux de bord d'indicateurs

Application Metrics

Une fois vos indicateurs diffusés en continu vers Elasticsearch, l'application Metrics de Kibana vous permet de les monitorer et d'identifier les problèmes en temps réel.

Découvrir l'application Metrics

Explorer et visualiser

Elastic Uptime

Propulsée par l'agent open source Heartbeat, la solution Elastic Uptime permet d'associer vos données de disponibilité au contexte détaillé que fournissent vos logs, vos indicateurs et APM. Corréler les activités, en tirer des conclusions et résoudre rapidement les problèmes devient ainsi bien plus simple.

Moniteur de disponibilité (Heartbeat)

Heartbeat est un daemon léger que vous pouvez installer sur un serveur distant pour contrôler l'état de vos services de manière périodique et déterminer s'ils sont disponibles. Heartbeat ingère les données du serveur. Celles-ci sont ensuite affichées sur le tableau de bord et l'application Uptime dans Kibana.

Découvrir Heartbeat

Tableaux de bord Uptime

Les tableaux de bord d'exemple Heartbeat vous permettent de visualiser facilement l'état de vos services dans Kibana. Commencez rapidement à utiliser ces tableaux de bord préconfigurés puis personnalisez-les selon vos besoins.

Découvrir les tableaux de bord Uptime

Application Uptime

L'application Uptime de Kibana a pour but de vous aider à identifier rapidement et à diagnostiquer les pannes ainsi que d'autres problèmes de connectivité au sein de votre réseau ou de votre environnement. Monitorez facilement les hôtes, les services, les sites Web, les API et plus depuis cette interface utile.

Découvrir l'application Uptime

Explorer et visualiser

Elastic SIEM

Avec Elastic SIEM et Elastic Endpoint Security, les analystes SOC, les équipes informatiques et celles en charge de la détection des menaces peuvent examiner les menaces et les catégoriser en un temps record. Elastic Security automatise la détection des menaces et des anomalies tout en proposant des workflows intuitifs pour les processus de recherche et d’analyse ainsi qu’une gestion des incidents intégrée, le tout dans Kibana.

Elastic Common Schema

Avec Elastic Common Schema (ECS), analysez de manière homogène les données provenant de différentes sources. Vous pouvez désormais appliquer des règles de détection, des tâches de Machine Learning, des tableaux de bord et d’autres contenus de détection à un plus grand nombre de cas d'utilisation, améliorer la précision de vos recherches et utiliser des noms de champs bien plus simples à mémoriser.

Cette vidéo vous dit tout sur Elastic Common Schema

Analyse de la sécurité de l'hôte

Venant compléter la très riche bibliothèque de visualisations et de tableaux de bord disponibles dans Kibana, la vue "Hosts" (Hôtes) de l'application SIEM affiche d'importantes informations sur les événements de sécurité de l'hôte. Elle intègre également des tables de données qui permettent l'interaction avec l'afficheur d'événements Timeline Event Viewer. Nous collectons aussi des données de sécurité basées sur l'hôte via Elastic Endpoint Security, Filebeat, Winlogbeat, Auditbeat et d’autres technologies.

En savoir plus sur l'analyse de la sécurité de l'hôte

Analyse de la sécurité réseau

Elastic Security est capable de monitorer la sécurité réseau grâce à une vue dédiée comprenant des cartes interactives, des graphes et des tableaux sur les événements. Elle est également compatible avec un vaste éventail de technologies de sécurité réseau, notamment des solutions de monitoring open source comme Zeek et Suricata, des appareils commerciaux provenant de fournisseurs, tels que Cisco ASA, Palo Alto Networks et Check Point, mais aussi des services cloud, notamment AWS et Google Cloud.

En savoir plus sur l'analyse de la sécurité réseau

Timeline Event Viewer

Grâce à l’afficheur d’événements Timeline Event Viewer, les analystes peuvent visualiser, filtrer et annoter les événements, collecter des données pour connaître la cause première ou l'étendue d'une attaque, et ajouter une analyse à un incident.

En savoir plus sur l'afficheur d'événements Timeline Event Viewer

Détection des anomalies par Machine Learning

Les fonctionnalités de Machine Learning intégrées à Elastic Security automatisent la détection des anomalies, tout en renforçant les workflows de recherche et de détection des menaces. Et avec le vaste ensemble de tâches de Machine Learning prédéfinies que nous vous proposons, leur adoption n'a jamais été plus rapide. Les anomalies s'affichent sous forme de signaux de détection, dans des vues contextuellement pertinentes, directement dans l'application SIEM.

En savoir plus sur Machine Learning + SIEM

Moteur de détection SIEM

Le moteur de détection SIEM assure une détection des menaces basée sur les techniques d'attaque et vous alerte lorsqu'il détecte des anomalies affichant des valeurs élevées. Grâce aux règles directement exploitables qu'ont développées les spécialistes de la sécurité Elastic, il est rapide à adopter. De plus, vous pouvez aussi créer des règles personnalisées pour n'importe quelles données formatées pour Elastic Common Schema (ECS).

En savoir plus sur les détections SIEM

Gestion des incidents

Les workflows de gestion intégrée des incidents permettent une meilleure maîtrise de la détection et de la réponse aux menaces. Avec Elastic SIEM, les analystes peuvent désormais ouvrir des incidents, les mettre à jour, y ajouter des tags, les commenter, les fermer et les intégrer à des systèmes externes. Une API ouverte et la prise en charge prédéfinie de Jira et de ServiceNow permettent en outre un alignement sur les workflows existants.

En savoir plus sur SIEM Cases