Der Azure OpenAI-Dienst bietet REST-API-Zugriff auf die leistungsstarken Sprachmodelle von OpenAI, einschließlich der Modellreihen GPT-4, GPT-4 Turbo mit Vision, GPT-3.5-Turbo und Embeddings. Darüber hinaus sind die neuen GPT-4- und GPT-3.5-Turbo- Modellreihen inzwischen allgemein verfügbar. Diese Modelle können leicht an Ihre spezifische Aufgabe angepasst werden, zum Beispiel für die Inhaltserstellung, Zusammenfassung, das Bildverständnis, semantische Suchen und die Übersetzung von natürlicher Sprache in Code. Nutzer können auf den Dienst über REST-APIs, das Python SDK oder unsere webbasierte Schnittstelle im Azure OpenAI Studio zugreifen.
Erste Schritte
- Kombinieren Sie Ihre Elasticsearch-Vektordatenbank mit Azure OpenAI
- Erfahren Sie, wie Relativity Elasticsearch und Azure OpenAI nutzt, um eine von KI unterstützte Suche zu entwickeln
- Speichern Sie Ihre Azure-OpenAI-Einbettungen in einer optimierten Elasticsearch-Vektordatenbank, die jetzt auf Elastic Cloud verfügbar ist
- Elasticsearch-Unterstützung für offene Inferenz-APIs bei Azure OpenAI-Einbettungen
- Elasticsearch-Unterstützung für offene Inferenz-APIs bei Chat-Abschlüssen
Tutorials zum Aufbau einer semantischen Suche
Azure AI Studio
Der Modellkatalog in Azure AI Studio ist der zentrale Ort zum Entdecken einer breiten Palette von Modellen, mit denen Sie generative KI-Anwendungen erstellen können. Er bietet hunderte Modelle von Modellanbietern wie Azure OpenAI Service, Mistral, Meta, Cohere, Nvidia und Hugging Face, einschließlich Modellen, die von Microsoft trainiert wurden.