Associez les énormes capacités de stockage de Hadoop et sa grande puissance de traitement avec la recherche et les analyses en temps réel d'Elasticsearch. Avec le connecteur Elasticsearch-Hadoop (ES-Hadoop), vous accédez rapidement aux précieuses informations contenues dans vos données big data. Travailler dans l'écosystème Hadoop devient encore plus passionnant.
Hadoop est un excellent système de traitement par lots, mais il peut s'avérer moins performant quand il s'agit de fournir des résultats en temps réel. Pour une découverte vraiment interactive des données, ES-Hadoop vous permet d'indexer vos données Hadoop dans la Suite Elastic. Vous capitalisez ainsi sur l'incroyable rapidité du moteur de recherche Elasticsearch et sur les belles visualisations de Kibana.
Avec ES-Hadoop, vous pouvez développer des applications de recherche intégrées et dynamiques pour traiter vos données Hadoop ou lancer des analyses complexes à faible latence, s'appuyant sur des agrégations, des requêtes full-text ou des requêtes géospatiales. Des recommandations produit au séquençage génomique, ES-Hadoop vous offre une foule d'applications.
Aucune prise de décision en temps réel n'est possible sans des mouvements de données ultrarapides. Avec les extensions dynamiques ajoutées aux API Hadoop existantes, ES-Hadoop vous permet d'échanger facilement les données entre Elasticsearch et Hadoop et vice-versa, tout en utilisant HDFS comme référentiel pour l'archivage à long terme. Les opérations de partition des données, de gestion des défaillances, de conversions de type et de colocalisation se font en toute transparence.
ES-Hadoop prend en charge Spark, Spark Streaming et SparkSQL. De plus, que vous utilisiez Hive, Pig, Storm, Cascading ou MapReduce, ES-Hadoop propose une interface native qui permet l'indexation vers Elasticsearch et l'envoi de requêtes depuis Elasticsearch. Quelle que soit la solution que vous utilisez, la puissance d'Elasticsearch est entre vos mains.

ES-Hadoop intègre toutes les fonctionnalités de sécurité dont vous avez besoin, y compris l'authentification HTTP et la prise en charge SSL/TLS. Ajoutons qu'il accepte aussi les déploiements Hadoop compatibles Kerberos.