Microsoft hat kürzlich auf der Build-Konferenz etwa 60 Ankündigungen veröffentlicht, darunter neue Funktionen für künstliche Intelligenz für Cloud-Datenbankverwaltungsprodukte.
Fabric, die im letzten Jahr eingeführte einheitliche Datenplattform des Unternehmens, ist einer der Hauptnutznießer. Ein Workload Development Kit, das sich derzeit in der Vorschau befindet, kann zur Erweiterung von Anwendungen in Fabric verwendet werden. Fabric Data Sharing ist eine neue Funktion, die Echtzeitdaten über Benutzer und Anwendungen hinweg verarbeitet. Es umfasst eine Anwendungsprogrammierschnittstelle für den Zugriff auf in externen Quellen gespeicherte Daten. Neue Automatisierungsfunktionen (Automation) vereinfachen sich wiederholende Aufgaben.
Fusion ist eine neue RESTful GraphQL-API, die es Fabric-Entwicklern ermöglicht, über eine einzige Abfrage auf mehrere Daten aus verschiedenen Quellen zuzugreifen. Erweiterte Benutzerdatenfunktionen ermöglichen die Erstellung datenzentrierter Anwendungen in Fabric Lake-Bibliotheken, Data Warehouses und gespiegelten Datenbanken mit einfacher Integration mithilfe nativer Codefunktionen und benutzerdefinierter Logik.
Microsoft sagte, dass Fabric der künstlichen Intelligenz generative Fähigkeiten für künstliche Intelligenz hinzugefügt hat, sodass technisch nicht versierte Benutzer Anwendungen erstellen können, die Fragen in natürlicher Sprache beantworten können. Das Unternehmen fügte außerdem Azure OpenAI Services auf jeder Ebene hinzu, um Datenflüsse und Pipelines zu erstellen, Code zu generieren und Modelle für maschinelles Lernen zu erstellen.
Eine neue Echtzeit-Intelligence-Funktion in Fabric kann eine Software-as-a-Service-Anwendung sein, die einen einzigen Ort für die Aufnahme, Verarbeitung und Weiterleitung von Ereignissen aus unterschiedlichen Quellen schafft. Event-Streams können über vorkonfigurierte Streaming-Konnektoren verarbeitet und über inhaltsbasiertes Routing mit Cloud-Quellen verbunden werden. Diese Echtzeit-Intelligence-Funktion kann flexibel konfiguriert werden, um unterschiedlichen Geschäftsanforderungen gerecht zu werden. Es kann basierend auf internem Routing eine Verbindung zu Cloud-Quellen herstellen und auch vorkonfigurierte Stream-Konnektoren für die Ereignisverarbeitung verarbeiten. Diese Flexibilität ermöglicht es, Ereignisse aus verschiedenen Quellen in Echtzeit zu empfangen, zu verarbeiten und weiterzuleiten. Gleichzeitig kann es über inhaltsbasiertes Routing eine Verbindung zu Cloud-Quellen herstellen, um sicherzustellen, dass Ereignisse entsprechend den Geschäftsanforderungen korrekt verarbeitet werden. Mit dieser neuen Echtzeit-Intelligence-Funktion kann Fabric
Fabric Copilot in der privaten Vorschau kann zum Generieren von Abfragen verwendet werden, um unbekannte Bedingungen in großen Datenmengen zu erkennen, die außerhalb des Rahmens einer menschlichen Analyse liegen.
Die Feinabstimmung für PostgreSQL ermöglicht den Zugriff auf Funktionen der künstlichen Intelligenz über Azure OpenAI-Dienste oder datenbankinterne Modelle. Dies bietet eine Option für diejenigen, die ihre Daten innerhalb der Datenbankinstanz behalten möchten.
Mit der Azure+ AI-Erweiterung können Entwickler die großen Sprachmodelle von Azure AI in ihren PostgreSQL-Anwendungen nutzen. Sie können den Azure OpenAI-Dienst aufrufen, um LLM-basierte Vektoreinbettungen zu generieren, um eine effiziente Ähnlichkeitssuche zu erreichen, und sie können auch Azure AI Language aufrufen, um Szenarien wie Sentimentanalyse, Spracherkennung und Entitätserkennung zu verarbeiten.
Entwickler können auch vorab trainierte Modelle für maschinelles Lernen für Szenarien wie Betrugsüberprüfung, -erkennung und Produktempfehlungen aufrufen. Mit dem Azure AI Translator kann eine Textübersetzung in Echtzeit durchgeführt werden.
Die datenbankinterne Einbettungsgenerierungsfunktion unterstützt das Texteinbettungsmodell in Azure Database for PostgreSQL, und die Einbettung kann innerhalb der Datenbank generiert werden, ohne den Azure OpenAI-Dienst aufzurufen. Microsoft sagt, dass dies die Zeit für die Erstellung von Einbettungen auf wenige Millisekunden Latenz reduziert und die Kosten vorhersehbarer macht.
CosmosDB, der weltweit verteilte Multimodell-Datenbankdienst zum Erstellen umfangreicher Anwendungen, erhält mehrere KI-bezogene Updates. Cosmos DB für NoSQL verfügt jetzt über eine integrierte Vektorindizierung und Vektorähnlichkeitssuche, sodass Daten und Vektoren synchron bleiben, ohne dass eine separate Datenbank erforderlich ist. Diese Funktion wird von DiskANN bereitgestellt, einer Open-Source-Software-Suite für Suchalgorithmen für ungefähre nächste Nachbarn, und befindet sich derzeit in der Vorschau.
Mit einer neuen Funktion, die jetzt in der Vorschau verfügbar ist, können Benutzer ihre serverlosen Azure Cosmos DB-Konten über das Azure-Portal oder die Befehlszeilenschnittstelle in den Modus mit bereitgestellter Kapazität überführen und dabei vollen Zugriff auf Datenvorgänge behalten.
Mit einer neuen Option in der Vorschau können Benutzer von Cosmos DB für MongoDB eine kontinuierlich aktualisierte Kopie des Clusters in einer anderen Region für den Failover erstellen. Das neue Go-Softwareentwicklungskit kann Datenbanken, Container und Projekte über mehrere Regionen hinweg betreiben, um hochverfügbare Anwendungen zu erreichen.
Das obige ist der detaillierte Inhalt vonAuf der Microsoft Build-Konferenz erhielten Fabric, PostgreSQL und Cosmos DB KI-Verbesserungen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!