Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Organisationen verlassen sich in der Regel auf mehrere getrennte Dienste, um Daten aufzunehmen, zu speichern, zu transformieren, zu analysieren und zu visualisieren. Diese Fragmentierung erzeugt Datensilos, erhöht den Integrationsaufwand und verlangsamt zeitaufwendigen Einblick. Microsoft Fabric behebt diese Herausforderungen, indem jede Phase des Datenlebenszyklus in einer einzigen Plattform zusammengeführt wird, die auf einer gemeinsamen Grundlage basiert.
Im Zentrum dieser Architektur befindet sich OneLake, ein einzelner Organisationsdatensee, der alle Daten im offenen Delta-Parkettformat speichert. OneLake wird automatisch mit jedem Fabric-Mandanten bereitgestellt. Da jede Fabric-Workload Daten aus OneLake liest und in OneLake schreibt, werden Daten nicht zwischen Engines verschoben. Ein Datensatz, der durch eine Pipeline aufgenommen, in einem Notizbuch verfeinert und in einem Power BI-Bericht visualisiert wird, bleibt während seiner gesamten Reise an einem Ort.
Der Datenlebenszyklus besteht aus sechs Phasen, und Fabric stellt für jede der folgenden Tools eigens erstellte Tools bereit:
Abrufen von Daten: Übertragen von Daten aus Hunderten von Quellen in Echtzeit, in einem Zeitplan, über die fortlaufende Datenbankreplikation oder durch Verweisen auf externen Speicher an Ort und Stelle.
Speichern von Daten: Speichern Sie Daten in Speicherformaten, die für Ihre Workload optimiert sind, unabhängig davon, ob es sich um flexible Big Data Analytics, strukturierte SQL-Abfragen, Echtzeitereignisanalyse, Transaktionsverarbeitung oder geregelte Geschäftsberichte handelt.
Vorbereiten und Transformieren: Bereinigen, Neuformen und Anreichern von Daten mit visuellen Low-Code-Transformationen oder Code-first-Notizbüchern und wiederverwendbaren Funktionen, ohne Daten aus OneLake zu verschieben.
Analysieren und trainieren: Erstellen und Operationalisieren von Machine Learning-Modellen, Ausführen erweiterter Analysen, programmgesteuerter Abfragen von Daten und Erkunden von Erkenntnissen durch KI-Agents in natürlicher Sprache.
Nachverfolgen und Visualisieren: Surface Insights durch interaktive Berichte, Überwachen von Livedatenstreams auf Echtzeit-Dashboards und Auslösen automatisierter Aktionen, wenn Bedingungen erfüllt sind.
Externe Integration: Sichere Verbindung mit externen Diensten für Automatisierung, Zusammenarbeit, Governance, Entwicklertools und CI/CD.
Das folgende Diagramm zeigt, wie diese Phasen eine Verbindung herstellen und welche Fabric-Elemente an jeder Phase teilnehmen. Jede Phase wird ausführlich in einem dedizierten Artikel behandelt. Verwenden Sie die Links in den einzelnen Abschnitten, um die in dieser Phase verfügbaren Funktionen und Tools zu erkunden.
Daten abrufen
Verschiedene Arten von Datasets stammen aus einer Vielzahl von Datenquellen in verschiedenen Datenszenarien, einschließlich Datenreplikation, externe Speicherverweise, Batch-Datasets und Echtzeitdatenströme. Diese Datasets werden über die Integrationstools von Fabric aufgenommen und transformiert. Die Daten landen in OneLake, dem zentralen Datenspeicher für alle Fabric. Zu den wichtigsten Aufnahmemethoden gehören:
- Eventstreams für Echtzeitereignisaufnahme und Routing.
- Datenpipelines für Batch- und geplante Datenverschiebungen mit mehr als 200 Konnektoren.
- Spiegelung für eine kontinuierliche Replikation aus betriebsbereiten Datenbanken ohne Erstellen von ETL-Pipelines.
- Tastenkombinationen für die Datenvirtualisierung ohne Kopie aus externem Speicher wie Azure Data Lake, Amazon S3 oder Google Cloud Storage.
Weitere Informationen finden Sie unter Abrufen von Daten in Microsoft Fabric.
Speichern von Daten
Nach der Aufnahme landen alle Daten in OneLake im offenen Delta-Parquet-Format. OneLake bietet einen einzelnen Data Lake für Ihre gesamte Organisation ohne separate Bereitstellung. Fabric bietet mehrere Speicherelemente, die für unterschiedliche Workloads optimiert sind:
- Lakehouse für flexiblen Big Data-Speicher, der Dateien und verwaltete Delta-Tabellen mit einem automatischen SQL-Endpunkt kombiniert.
- Warehouse für strukturierte, relationale Analysen mit vollständiger T-SQL-Unterstützung, gespeicherten Prozeduren und ACID-Transaktionen.
- Eventhouse für Echtzeitanalysen für Streaming- und Telemetriedaten mithilfe der Kusto Query Language (KQL).
- SQL-Datenbank für Transaktionsworkloads und Betriebsanalysen.
- Semantische Modelle für kuratierte Geschäftslogik, Measures und Hierarchien, die Berichte und KI unterstützen.
Weitere Informationen finden Sie unter Speichern von Daten in Microsoft Fabric.
Aufbereiten und Transformieren von Daten
Sobald die Daten in OneLake sind, können Sie sie weiter transformieren, indem Sie entweder Code-First-Engines oder Low-Code-Tools verwenden, alles in der Fabric-Umgebung ohne Datenverschiebung zwischen den Engines.
- Dataflow Gen2 bietet eine Power Query-Schnittstelle mit geringem Code für die Datenbereinigung, Transformation und Anreicherung.
- Notizbücher bieten eine Jupyter-ähnliche Umgebung für Python, T-SQL und Scala-basierte Datentechnik.
- Mithilfe von Benutzerdatenfunktionen können Sie wiederverwendbare benutzerdefinierte Python-Logik einbetten, die von Pipelines, Notizbüchern und Aktivierregeln aufgerufen werden kann.
Weitere Informationen finden Sie unter Vorbereiten und Transformieren von Daten.
Daten analysieren und Modelle trainieren.
Verwenden Sie die vorbereiteten Daten, um ML-Modelle zu trainieren und erweiterte Analysen durchzuführen. Die Data Science-Workload von Fabric bietet eine Umgebung zum Erstellen, Trainieren und Operationalisieren von ML-Modellen:
- MLflow-Experimente verfolgen Modellschulungen mit automatischer Protokollierung von Hyperparametern, Metriken und Elementen.
- ML-Modelle werden in einer MLflow-basierten Registrierung für Versionsverwaltung, Metadatennachverfolgung und Reproduzierbarkeit registriert.
- Mit Daten-Agents und Operations-Agents können Sie mit Daten interagieren, indem Sie natürliche Sprache verwenden und auf Bedingungen und Muster reagieren, die gefunden werden.
- GraphQL-APIs bieten Entwicklern eine flexible Datenzugriffsebene, um mehrere Fabric-Datenquellen über einen einzelnen Endpunkt abzufragen.
- Copilot für Power BI verwendet generative künstliche Intelligenz für Ad-hoc-Analysen, DAX-Erzeugung und natürliche Sprachdatenexploration.
Weitere Informationen finden Sie unter Analysieren und Trainieren von Daten in Microsoft Fabric.
Nachverfolgen und Visualisieren von Daten
Verwenden Sie die vorbereiteten und modellierten Daten, um Berichte, Dashboards und Echtzeitwarnungen zu erstellen:
- Power BI-Berichte bieten interaktive Datenvisualisierungen, die auf semantischen Modellen beruhen und in verschiedenen Microsoft 365-Apps wie Teams, SharePoint, PowerPoint und Excel verbreitet werden.
- Translytische Taskflows ermöglichen Es Benutzern, direkt aus Power BI-Berichten maßnahmen zu ergreifen, indem Benutzerdatenfunktionen aufgerufen werden.
- Real-Time Intelligence-Dashboards überwachen Streamingdaten mit Unter-Sekunde-Latenz mithilfe von KQL-Abfragen und visueller Erstellung.
- Aktivator erkennt Bedingungen in Streamingdaten und löst automatisierte Aktionen wie Teams-Warnungen, E-Mails oder Power Automate-Flüsse aus.
- Fabric IQ ordnet Unternehmensdaten einer freigegebenen Geschäfts-Ontologie zu und ermöglicht KI-Agenten, ihre Daten mit vollständigem Geschäftskontext zu überschreiben.
Weitere Informationen finden Sie unter "Nachverfolgen und Visualisieren von Daten".
Externe Integration
Fabric ist in externe Systeme integriert, sowohl für die Datenaufnahme als auch für die Bereitstellung von Insights:
- Power Automate und Datenaktivator ermöglichen die Automatisierung von Echtzeitworkflows basierend auf Datenbedingungen.
- Die Microsoft 365-Integration zeigt Einblicke in Teams, SharePoint, PowerPoint und Excel an.
- REST-APIs und Clientbibliotheken bieten programmgesteuerten Zugriff auf Fabric-Ressourcen.
- Die Microsoft Entra-ID behandelt die Authentifizierung, den bedingten Zugriff und den Dienstprinzipalsupport.
- Die Git-Integration in Azure DevOps und GitHub ermöglicht die Versionssteuerung und CI/CD für Fabric-Elemente.
- Microsoft Purview bietet eine einheitliche Datenverwaltung, Katalogisierung und Compliance über den gesamten Fabric-Datenbestand.
Weitere Informationen finden Sie unter Externe Integration und Plattformkonnektivität.
Unterstützung natürlicher Sprache und KI
Die Unterstützung natürlicher Sprache erfolgt durch Power BI Copilot, Data Agents und Operations Agents, die über Unternehmensdaten in OneLake analysieren können und Antworten basierend auf den Datenelementen generieren, auf die Benutzer zugreifen können. Sie können Daten-Agents in Microsoft 365 Copilot, Microsoft Foundry und Copilot Studio integrieren, damit Benutzer Einblicke aus OneLake innerhalb ihrer vorhandenen Workflows in verschiedenen Anwendungen erhalten können.