Intelligenza in Tempo Reale in Microsoft Fabric
Man mano che le organizzazioni generano volumi crescenti di dati basati su eventi, la possibilità di elaborare, analizzare e agire sui dati in movimento diventa essenziale per il vantaggio competitivo. Real-Time Intelligence offre funzionalità complete per l'uso dei dati di streaming con una latenza minima.
Esplorare Real-Time casi d'uso di Intelligence
A differenza dei sistemi batch che elaborano i dati a intervalli pianificati, Real-Time Intelligence consente di rispondere agli eventi man mano che si verificano, offrendo informazioni dettagliate quasi in tempo reale.
Ecco alcuni tipi comuni di dati degli eventi ed esempi di come Real-Time Intelligence può supportare azioni downstream e velocità di risposta aziendale:
- Tracciamento recapito: monitorare le posizioni dei veicoli per avvisare i clienti quando i pacchetti vengono ritardati
- Monitoraggio delle apparecchiature: tenere traccia della temperatura del computer per evitare guasti costosi
- Rilevamento delle frodi: analizzare i modelli di acquisto per bloccare immediatamente le transazioni sospette
- Prestazioni del sito Web: monitorare i tempi di caricamento delle pagine per migliorare l'esperienza utente
- Integrità del sistema: tenere traccia degli errori dell'applicazione per mantenere l'affidabilità del servizio
componenti di intelligence Real-Time
Microsoft Fabric Real-Time Intelligence è un set integrato di componenti che interagiscono per gestire lo streaming dei dati dall'acquisizione tramite risposta automatica.
Il diagramma mostra come i componenti di intelligence Real-Time interagiscono per l'elaborazione end-to-end. Ogni componente gestisce una fase specifica del processo di analisi in tempo reale:
Inserire ed elaborare i dati in movimento con eventstream
L'inserimento e l'elaborazione dei dati possono verificarsi tramite Eventstream, che acquisiscono i dati in streaming da varie origini e applicano trasformazioni in tempo reale durante i flussi di dati attraverso il sistema. I flussi di eventi possono filtrare, arricchire e trasformare i dati e instradarli a destinazioni diverse.
Archiviare i dati in tempo reale in una eventhouse
Real-Time Intelligence archivia i dati nei database KQL (Kusto Query Language) in Eventhouses. Questi database sono progettati per i dati delle serie temporali e l'inserimento rapido dei dati di streaming. L'archiviazione si integra con OneLake, rendendo i dati disponibili per altri strumenti di Fabric.
Analizzare i dati con queryset KQL
KQL Queryset offre un'area di lavoro per l'esecuzione e la gestione delle query sui database KQL. Il set di query KQL consente di salvare le query per un uso futuro, organizzare più schede di query e condividere query con altri utenti per la collaborazione. Il set di query KQL supporta anche le query T-SQL, consentendo di usare una sintassi SQL familiare insieme a KQL per l'analisi dei dati.
Visualizzare informazioni dettagliate con Real-Time Dashboard
Real-Time Dashboard si connettono direttamente ai database KQL e vengono aggiornati automaticamente man mano che arrivano nuovi dati. Questi dashboard consentono di esplorare i dati in modo interattivo e monitorare sia le condizioni correnti che le tendenze cronologiche.
Agire sui dati con Activator
Le azioni automatizzate possono essere configurate con Activator, che monitora continuamente i dati di streaming su regole e soglie definite dall'utente. Quando vengono soddisfatte le condizioni, Activator può inviare notifiche, attivare flussi di lavoro in Power Automate, eseguire pipeline di dati o notebook di Fabric, creando automazione guidata dagli eventi che risponde a condizioni in tempo reale.
Individuare i dati di streaming con l'hub Real-Time
L'hubReal-Time Fabric è una posizione centrale in cui è possibile individuare e gestire tutti i dati in movimento a cui si ha accesso. Offre un modo per inserire dati di streaming da Azure e da origini esterne e consente di sottoscrivere gli eventi di Azure e Fabric.
Si consideri l'hub Real-Time come il catalogo dati di streaming in cui è possibile vedere cosa accade quasi in tempo reale nell'intera organizzazione. Esistono connettori che è possibile usare per inserire dati in Microsoft Fabric da diverse origini. Ad esempio, è possibile connettersi ai flussi dei sensori IoT tramite Hub eventi di Azure, sottoscrivere gli eventi di Archiviazione BLOB di Azure, usare Change Data Capture (CDC) per trasmettere le modifiche del database o monitorare gli eventi dell'area di lavoro infrastruttura.
Dopo aver configurato una connessione all'origine dati o all'origine evento, questi elementi diventano la base per il processo decisionale basato su eventi e un'ampia gamma di soluzioni di analisi in tempo reale, dalla creazione di dashboard e alla configurazione di avvisi per attivare flussi di lavoro automatizzati e analizzare le tendenze nei dati.
Per accedere all'hub in tempo reale, selezionare l'icona in tempo reale nella barra dei menu principale dell'infrastruttura.
L'hub in tempo reale organizza i dati in movimento in diverse categorie principali:
- Origini dati: esplorare e connettersi a origini dati di streaming disponibili, ad esempio origini Microsoft, feed di change data capture del database e origini esterne di altri provider di servizi cloud
- Origini di Azure: individuare e configurare origini dati di streaming di Azure, ad esempio l'hub IoT di Azure, il bus di servizio di Azure, il database di Esplora dati di Azure e altro ancora
- Eventi dell'infrastruttura: sottoscrivere eventi generati dal sistema in Fabric a cui è possibile accedere, ad esempio modifiche allo stato del processo, eventi generati da azioni su file o cartelle in OneLake e modifiche agli elementi dell'area di lavoro Infrastruttura
- Eventi di Azure: sottoscrivere eventi di sistema da servizi di Azure che possono essere usati per attivare risposte automatizzate, ad esempio azioni su file o cartelle nell'archiviazione BLOB di Azure
Nell'hub Real-Time è possibile visualizzare in anteprima ed esplorare i dati di streaming passando direttamente ai flussi di eventi o ai database KQL nelle case eventi per eseguire query e analisi più approfondite. È anche possibile creare risposte automatizzate usando regole di attivazione che attivano azioni come notifiche, flussi di lavoro o elaborazione dati quando vengono rilevati modelli specifici.