Scegliere una tecnologia di elaborazione e generazione di immagini e video di Intelligenza artificiale di Azure

Gli strumenti Foundry consentono agli sviluppatori e alle organizzazioni di creare applicazioni basate su intelligenza artificiale, avanzate e pronte per la produzione in linea con le pratiche di intelligenza artificiale responsabile usando API e modelli predefiniti e personalizzabili.

Questo articolo descrive le funzionalità di elaborazione di video e immagini in Strumenti, ad esempio l'analisi visiva e la generazione di immagini, rilevamento di oggetti, classificazione delle immagini e riconoscimento facciale. La suite include i servizi seguenti:

  • Azure OpenAI in Foundry Models fornisce l'accesso ai modelli di linguaggio OpenAI seguenti:

    • La generazione più recente di modelli GPT con funzionalità di visione e audio

    • DALL-E per la generazione di immagini

    • Modelli audio per conversazioni vocali in tempo reale, generazione di audio, trascrizione del parlato (STT), traduzione e testo-voce (TTS)

    Usare Azure OpenAI per la generazione di immagini da linguaggio naturale, analisi di immagini generali e non specifiche o scenari audio che non richiedono un servizio di riconoscimento vocale dedicato.

  • Visione di Azure in Foundry Tools offre algoritmi avanzati che elaborano le immagini e restituiscono informazioni basate sulle funzionalità visive. Include funzionalità di riconoscimento ottico dei caratteri (OCR), analisi delle immagini e rilevamento dei volti.

  • Visione personalizzata di Intelligenza artificiale di Microsoft Azure è un servizio di riconoscimento delle immagini che è possibile usare per compilare, distribuire e migliorare i modelli di identificatore di immagine per requisiti specifici che altri servizi non possono soddisfare.

  • Azure Content Understanding in Foundry Tools usa l'intelligenza artificiale generativa per estrarre campi strutturati da immagini e video. Utilizzare Comprensione del Contenuto di Azure quando è necessario un output video pronto per l'estrazione definita dallo schema, la segmentazione della scena o la generazione aumentata da recupero (RAG).

  • Microsoft Azure AI Video Indexer è una soluzione di intelligenza artificiale che le organizzazioni possono usare per estrarre informazioni dettagliate dai contenuti video e audio. Supporta origini attive e caricate usando modelli avanzati di Machine Learning e di intelligenza artificiale generativa.

OpenAI di Azure

Azure OpenAI fornisce l'accesso ai potenti modelli linguistici di OpenAI, inclusa la generazione più recente di modelli GPT con funzionalità di immagine, video e audio. sono disponibili anche modelli di generazione di immaginiDALL-E e GPT e modelli audio per conversazioni vocali in tempo reale, generazione e trascrizione audio, STT, traduzione vocale e TTS.

Usare Azure OpenAI per queste attività Non usare Azure OpenAI per queste attività
Generare immagini da descrizioni del linguaggio naturale usando DALL-E o modelli di immagine GPT. Eseguire attività specifiche di elaborazione delle immagini, ad esempio l'estrazione di moduli o il rilevamento specializzato in un determinato ambito. Usare Azure Document Intelligence per queste attività.
Eseguire un'analisi generale e non specifica delle immagini usando modelli con funzionalità di visione come GPT-4o. Estrarre campi strutturati dalle immagini usando uno schema definito dall'utente. Per l'estrazione basata su schema, usare Informazioni sul contenuto di Azure.
Trascrivere o tradurre l'audio parlato usando i modelli di trascrizione Whisper o GPT-4o. Rilevare, riconoscere o analizzare i visi umani. Per le attività correlate al viso, usare Visione di Azure.
Abilitare conversazioni vocali in tempo reale a bassa latenza usando modelli audio in tempo reale GPT-4o. Eseguire la trascrizione vocale ad alto volume che richiede personalizzazione avanzata, diarizzazione dell'altoparlante o vocabolario personalizzato. Per questi scenari, usare Azure Speech nei Foundry Tools.
Generare descrizioni di accessibilità per le immagini. Usare modelli di generazione di immagini open source. Per i modelli open source, usare Azure Machine Learning.

Modelli audio

Azure OpenAI fornisce modelli audio tramite le API seguenti:

  • Realtime API per conversazioni vocali a bassa latenza in tempo reale

  • L'API Chat Completions con audio per la generazione e trascrizione audio in maniera flessibile in un'unica chiamata al modello

  • API Audio tramite l'endpoint per la trascrizione da file nei modelli di trascrizione STT Whisper e GPT-4o, traduzione del parlato e sintesi vocale (TTS)

Visione di Azure

Visione di Azure è un servizio in Strumenti. Fornisce algoritmi avanzati che elaborano le immagini e restituiscono informazioni in base alle funzionalità visive specificate. Visione di Azure include funzionalità di OCR, analisi delle immagini e rilevamento dei volti.

Usare Visione di Azure per queste attività Non usare Visione di Azure per queste attività
Estrarre testo stampato e scritto a mano da immagini e documenti usando OCR. Eseguire analisi video avanzate, ad esempio trascrizione, traduzione o riepilogo del contenuto. Per queste attività, usare Video Indexer.
Analizzare le immagini per estrarre caratteristiche visive come oggetti, visi e descrizioni generate automaticamente. Moderare il contenuto per la sicurezza. Per la moderazione del contenuto, usare Content Safety nel piano di controllo Foundry.
Rilevare, riconoscere e analizzare i visi umani nelle immagini. Esegui analisi che modelli di fondazione multimodali di grandi dimensioni come GPT-4o supportano già.

Funzionalità di Visione di Azure disponibili

La tabella seguente fornisce un elenco delle funzionalità disponibili in Visione di Azure.

Feature Descrizione
OCR Estrae testo dalle immagini. È possibile usare l'API Lettura per estrarre testo stampato e scritto a mano da foto e documenti. Usa modelli basati sull'apprendimento avanzato e funziona con testo su varie superfici e sfondi, inclusi documenti aziendali, fatture, ricevute, poster, biglietti da visita, lettere e lavagne.
Analisi delle immagini Estrae molte caratteristiche visive dalle immagini, ad esempio oggetti, visi, contenuto per adulti e descrizioni di testo generate automaticamente. È possibile creare modelli di identificatore di immagine personalizzati usando Image Analysis 4.0 basato sul modello di base di Firenze.
Rilevamento e analisi facciale Identifica le aree di un'immagine che contengono un viso umano, restituendo in genere le coordinate del riquadro che formano un rettangolo intorno al viso.
Individuare visi simili Trova la corrispondenza di un viso di destinazione con un set di visi candidati e identifica un gruppo più piccolo di visi che assomigliano strettamente al viso di destinazione. Questa funzionalità è utile per la ricerca dei visi in base all'immagine.
Gruppo volti Divide un insieme di volti sconosciuti in diversi gruppi più piccoli in base alla somiglianza.
Identificazione del viso Esegue una corrispondenza uno-a-molti per abbinare un viso in un'immagine a un gruppo di visi in un repository sicuro. I candidati corrispondenti vengono restituiti in base a quanto i dati del volto corrispondono efficacemente al volto di riferimento della query.
Verifica del viso Esegue una corrispondenza uno-a-uno per verificare che un utente sia chi dichiara di essere.
Rilevamento della vitalità Una funzionalità anti-spoofing che controlla se un utente è fisicamente presente davanti alla fotocamera. Impedisce attacchi di spoofing che usano una foto stampata, un video registrato o una maschera 3D del viso dell'utente.

Casi d'uso per Visione di Azure

La tabella seguente fornisce un elenco dei possibili casi d'uso per Visione di Azure.

Caso d'uso Descrizione
Generare testo alternativo per l'immagine (alt text) Usare i modelli di didascalia dell'analisi delle immagini per generare automaticamente descrizioni di testo alternativo per le immagini. Il testo alternativo migliora l'accessibilità per gli utenti non vedenti o ipovedenti, consente di soddisfare i requisiti di conformità legali e rende il sito Web più individuabile tramite un miglioramento del SEO. I prodotti Microsoft come PowerPoint, Word e Edge usano questa funzionalità.
Verifica dell'identità Usare Azure Face per verificare che gli utenti siano chi affermano di essere. La verifica confronta un'immagine di prova con un modello registrato, come un documento di identità rilasciato da enti pubblici, per gli scenari di controllo degli accessi. Questo approccio consente di migliorare l'esperienza utente e la sicurezza rispetto ai metodi basati sulle conoscenze.
Oscuramento del viso Oscura o sfoca i volti rilevati delle persone registrate in un video per proteggerne la privacy.
Controllo di accesso senza tocco Usare l'identificazione del viso con consenso esplicito per il controllo degli accessi avanzato, riducendo al contempo i rischi di manutenzione e sicurezza derivanti dalla condivisione, dalla perdita o dal furto di contenuti multimediali fisici. Il riconoscimento facciale assiste nel processo di check-in con un essere umano coinvolto per il check-in negli aeroporti, stadi, parchi a tema, edifici, chioschi di ricevimento presso uffici, ospedali, palestre, club o scuole.

Visione personalizzata

Visione personalizzata è un servizio di riconoscimento delle immagini che è possibile usare per compilare, distribuire e migliorare i modelli di identificatore di immagine. Un identificatore di immagine applica etichette alle immagini in base alle relative caratteristiche visive. Ogni etichetta rappresenta una classificazione o un oggetto. Utilizzare Visio personalizzato per specificare le proprie etichette e formare modelli personalizzati per rilevarle.

Usare Visione personalizzata per queste attività Non usare Visione personalizzata per queste attività
Riconoscere oggetti insoliti e difetti di produzione che l'analisi delle immagini standard non è in grado di rilevare. Eseguire il rilevamento di oggetti di base o il rilevamento dei volti. Usare invece Visione di Azure .
Fornire classificazioni personalizzate dettagliate per requisiti aziendali specifici. Eseguire l'analisi visiva di base. Usare invece modelli con supporto per la visione da modelli OpenAI di Azure o open source in Machine Learning.
Addestrare i modelli con immagini personalizzate etichettate per scenari specializzati.

Visione personalizzata usa un algoritmo di Machine Learning per analizzare le immagini per le funzionalità personalizzate. Si inviano set di immagini con e senza le caratteristiche visive desiderate. Le immagini vengono quindi etichettate con etichette personalizzate o tag al momento dell'invio. L'algoritmo usa questi dati per eseguire il training e calcolare la propria accuratezza testando se stesso sulle stesse immagini. Dopo aver eseguito il training del modello, è possibile testare, ripetere il training e infine usare il modello nell'app di riconoscimento delle immagini per classificare le immagini o rilevare gli oggetti. È anche possibile esportare il modello per usarlo offline.

Funzionalità di Visione personalizzata disponibili

Nella tabella seguente viene fornito un elenco delle funzionalità disponibili in Visione personalizzata.

Feature Descrizione
Classificazione immagini Stimare una categoria o una classe in base a un set di input, denominati funzionalità. Calcolare un punteggio di probabilità per ogni classe possibile e restituire un'etichetta che indica la classe a cui appartiene l'oggetto più probabile. Per usare questo modello, sono necessari dati costituiti dalle caratteristiche e dalle relative etichette.
Rilevamento oggetti Ottiene le coordinate di un oggetto in un'immagine. Per usare questo modello, sono necessari dati costituiti dalle caratteristiche e dalle relative etichette.

Casi di utilizzo di Custom Vision

Nella tabella seguente viene fornito un elenco dei possibili casi d'uso per Visione personalizzata.

Caso d'uso Descrizione
Usare Visione personalizzata con un dispositivo IoT (Internet delle cose) per segnalare gli stati di visualizzazione. Usare Custom Vision per addestrare un dispositivo dotato di fotocamera a rilevare stati visivi. È possibile eseguire questo scenario di rilevamento in un dispositivo IoT usando un modello ONNX esportato. Uno stato visivo descrive il contenuto di un'immagine, ad esempio una stanza vuota, una stanza con persone, una pista vuota o una pista con un camion.
Classificare immagini e oggetti. Analizzare le foto e cercare logo specifici eseguendo il training di un modello personalizzato.

Informazioni sui contenuti di Azure

Azure Content Understanding è un servizio in Strumenti. Usa l'intelligenza artificiale generativa per estrarre campi strutturati da immagini e video. Si definisce uno schema che specifica gli elementi da estrarre e Azure Content Understanding applica modelli generativi per produrre output Markdown strutturato o pronto per RAG. Fornisce anche punteggi di attendibilità e base per ogni valore estratto, che supporta flussi di lavoro automatizzati con revisione umana mirata.

Usare Informazioni sul contenuto di Azure per queste attività Non usare La comprensione dei contenuti di Azure per queste attività
Estrarre campi strutturati personalizzati dalle immagini usando uno schema definito, ad esempio prodotto, marchio o rilevamento dei difetti. Eseguire l'analisi delle immagini standard, ad esempio il rilevamento di oggetti o OCR. Usare Visione di Azure per queste attività.
Generare un output pronto per RAG da video, incluse descrizioni della scena, trascrizioni e fotogrammi chiave, da usare negli indici di ricerca o negli agenti di chat. Ricavare approfondimenti dettagliati dai video, come l'identificazione delle celebrità, il conteggio dei relatori o l'analisi del sentiment nel contenuto in formato lungo. Usare Video Indexer per queste attività.
Segmentare il video in scene ed estrarre metadati personalizzati per ogni segmento, ad esempio la presenza del marchio o la categoria di annunci.
Generare descrizioni dei volti in immagini o video, ad esempio espressioni facciali o identificazione celebrità. Queste funzionalità hanno accesso limitato.

Funzionalità disponibili di Analisi dei contenuti di Azure

La tabella seguente fornisce un elenco delle funzionalità di immagine e video disponibili in Informazioni sul contenuto di Azure.

Feature Descrizione
Estrazione di campi immagine Estrae campi strutturati personalizzati dalle immagini in base a uno schema definito dall'utente. È possibile estrarre i campi direttamente, classificarli da un set di categorie o generarli usando un modello generativo. Questa funzionalità è utile per l'analisi degli scaffali al dettaglio, il controllo della qualità di produzione e la business intelligence basata su grafici (BI).
Estrazione di fotogrammi chiave Estrae fotogrammi chiave rappresentativi da ogni ripresa in un video. Garantisce che ogni segmento disponga di un contesto visivo sufficiente per l'estrazione di campi a valle.
Rilevamento delle inquadrature Identifica i limiti degli scatti in un video in base ai segnali visivi. Produce un elenco di timestamp per la modifica, la ricompressione e la segmentazione precise.
Segmentazione della scena Divide un video in scene logiche descritte in linguaggio naturale. Si definisce la logica di segmentazione, ad esempio la divisione di una trasmissione di notizie in base all'argomento della storia e il modello generativo crea segmenti corrispondenti.
Estrazione di campi video Genera campi strutturati personalizzati per ogni segmento video basato su uno schema, ad esempio logo del marchio, categorie di annunci o sentiment della scena, usando un modello generativo.
Descrizione viso Genera descrizioni testuali dei visi in immagini o video, inclusi i capelli facciali, le espressioni e l'identificazione delle celebrità. La descrizione del viso è una funzionalità a accesso ristretto che richiede che tu disattivi l'offuscamento del viso nella configurazione dell'analizzatore.

Casi d'uso per Comprensione del contenuto di Azure

La tabella seguente fornisce un elenco dei possibili casi d'uso per Azure Content Understanding applicato a immagini e video.

Caso d'uso Descrizione
Rag in video Generare Markdown RAG-ready dai file video, incluse le trascrizioni in linea, le miniature dei fotogrammi chiave e le descrizioni dei segmenti in linguaggio naturale. Inserire l'output direttamente in un archivio vettoriale per consentire flussi di lavoro di agente o di ricerca senza post-elaborazione.
Gestione degli asset multimediali Contrassegna gli asset video con metadati a livello di scena, ad esempio categoria di contenuto, presenza del marchio e momenti chiave. Questo approccio consente agli editor, ai produttori e ai team di marketing di organizzare e recuperare contenuto da raccolte video di grandi dimensioni.
Controllo della qualità della produzione Analizzare le immagini dei prodotti in base a uno schema personalizzato per rilevare difetti, anomalie o disallineamenti nelle linee di produzione.
Analisi degli scaffali al dettaglio Estrarre dati strutturati dalle immagini degli scaffali per contare i prodotti, rilevare errori e monitorare i livelli delle scorte.
Analisi di annunci e marchi Identificare i loghi dei marchi e le categorie pubblicitarie nei segmenti video promozionali per valutare l'esposizione e la conformità con le linee guida del marchio.

Indicizzatore di Video

Video Indexer è una soluzione di intelligenza artificiale che le organizzazioni possono usare per estrarre informazioni dettagliate dal contenuto video e audio live e caricato. Usa modelli avanzati di machine learning e intelligenza artificiale generativi e supporta un'ampia gamma di funzionalità, tra cui trascrizione, traduzione, rilevamento oggetti e riepilogo video. Video Indexer è flessibile. È possibile usarlo nel cloud o distribuirlo in posizioni perimetrali tramite Azure Arc.

Usare Video Indexer per queste attività Non usare Video Indexer per queste attività
Estrarre informazioni dettagliate dai video caricati, tra cui trascrizione, traduzione e analisi del contenuto. Eseguire attività di analisi video di base, ad esempio il conteggio e il rilevamento del movimento. Visione di Azure è uno strumento più conveniente per queste attività.
Analizzare i flussi video live in tempo reale per scenari di vendita al dettaglio, produzione o sicurezza. Estrarre testo da immagini statiche. Per OCR nelle immagini, usare Visione di Azure.
Eseguire l'analisi video nei dispositivi perimetrali con requisiti rigorosi di residenza dei dati o bassa latenza usando Azure Arc.

Opzioni di distribuzione

Video Indexer offre le opzioni di distribuzione seguenti.

Opzione Descrizione
Video Indexer basato sul cloud Un'applicazione cloud basata su Strumenti, tra cui Viso di Azure, Azure Translator in Foundry Tools, Visione di Azure e Riconoscimento vocale di Azure. Analizza i contenuti video e audio eseguendo più di 30 modelli di intelligenza artificiale per generare informazioni dettagliate.
Video Indexer abilitato da Azure Arc Un'estensione di Azure Arc che esegue l'analisi video e audio e genera l'intelligenza artificiale nei dispositivi perimetrali. Supporta sia flussi video caricati che live, che consentono l'analisi in tempo reale direttamente nell'origine dati. Si adatta ai settori che hanno requisiti rigorosi di residenza dei dati o esigenze operative a bassa latenza.

Modelli video

La tabella seguente fornisce un elenco delle funzionalità di analisi video disponibili in Video Indexer.

Feature Descrizione
Rilevamento volti Rileva e raggruppa i visi visualizzati in un video.
Identificazione del volto basata sull'account. Esegue il training di un modello per un account specifico e riconosce i visi nei video in base al modello sottoposto a training.
Rilevamento delle persone osservate Rileva le persone osservate nei video e fornisce informazioni sulla posizione usando rettangoli delimitatori, con timestamp e livelli di confidenza esatti. Include persone abbinate, abbigliamento rilevato e informazioni dettagliate sull'abbigliamento in primo piano.
Rilevamento oggetti Rileva e tiene traccia di oggetti univoci in modo che possa riconoscerli se tornano al frame.
OCR Estrae testo da immagini come immagini, segni stradali e prodotti nei file multimediali per creare informazioni dettagliate.
Identificazione delle etichette Identifica gli oggetti visivi e le azioni visualizzate.
Segmentazione della scena Determina quando una scena cambia nel video in base ai segnali visivi. Una scena illustra un singolo evento composto da una serie di scatti consecutivi.
Rilevamento delle inquadrature Determina quando un'immagine cambia nel video in base ai segnali visivi. Uno scatto è una serie di fotogrammi acquisiti dalla stessa fotocamera del movimento.
Estrazione di fotogrammi chiave Rileva fotogrammi chiave stabili in un video.
Rilevamento di slate Identifica le informazioni dettagliate post-produzione dei film, tra cui il rilevamento della scheda clapper, il rilevamento dei modelli digitali e il rilevamento degli slate senza testo.

Modelli audio

La tabella seguente fornisce un elenco delle funzionalità di analisi audio disponibili in Video Indexer.

Feature Descrizione
Trascrizione audio Converte STT in più di 50 lingue e supporta le estensioni.
Rilevamento automatico della lingua Identifica la lingua parlata dominante.
Identificazione vocale in più lingue Identifica la lingua parlata in segmenti diversi di audio, invia ogni segmento da trascrivere e li combina in una trascrizione unificata.
Sottotitoli Crea la didascalia chiusa nei formati Web Video Text Track (WebVTT), Timed Text Markup Language (TTML) e SubRip Subtitle (SRT).
Elaborazione di due canali Rileva automaticamente trascrizioni separate e le unisce in un'unica sequenza temporale.
Riduzione del rumore Cancella le registrazioni audio telefoniche o rumorose in base ai filtri Skype.
Enumerazione voce Mappa e capisce quale oratore ha pronunciato quali parole e quando l'ha fatto. Può rilevare 16 altoparlanti in un singolo file audio.
Traduzione Crea traduzioni della trascrizione audio in molte lingue diverse.
Rilevamento degli effetti audio Rileva effetti audio in segmenti non speciali, tra cui allarmi o sirene, un cane abbaiare, reazioni di folla, suoni ad impatto forte, risate, vetro rotto e silenzio.

Modelli audio e video combinati

Le funzionalità seguenti analizzano il contenuto audio e video.

Feature Descrizione
Estrazione di parole chiave Estrae parole chiave dal riconoscimento vocale e dal testo visivo
Estrazione delle entità nominate Estrae marchi, località e persone dal parlato e dal testo visivo tramite l'elaborazione del linguaggio naturale (NLP)
Inferenza dell'argomento Estrae argomenti basati su varie parole chiave utilizzando l'IPTC (International Press Telecommunications Council), Wikipedia e l'ontologia gerarchica dei temi di Video Indexer.
Analisi del sentimento Identifica sentimenti positivi, negativi e neutrali dal parlato e dal testo visivo

Per altre informazioni, vedere Panoramica di Video Indexer.

Casi d'uso per Video Indexer basato sul cloud

La tabella seguente fornisce un elenco dei possibili casi d'uso per Video Indexer basato sul cloud.

Caso d'uso Descrizione
Ricerca avanzata Migliorare l'esperienza di ricerca in una raccolta video usando le informazioni dettagliate estratte da Video Indexer. Ad esempio, quando si indicizzano parole e visi, gli utenti possono trovare momenti in un video quando una persona parla parole specifiche o quando due persone vengono viste insieme. Questi casi d'uso si applicano a qualsiasi settore che dispone di una raccolta video che gli utenti devono cercare, tra cui agenzie di notizie, istituti di istruzione, emittenti televisive, proprietari di contenuti di intrattenimento e app line-of-business aziendali (LOB).
Creazione di contenuto Creare trailer, montaggi, contenuti di social media o clip di notizie in base agli approfondimenti estratti da Video Indexer dai tuoi contenuti. I fotogrammi chiave, gli indicatori di scena e le marche temporali delle apparizioni di persone ed etichette semplificano il processo di creazione.
Accessibilità Rendere disponibile il contenuto per le persone con disabilità o distribuire contenuto in aree che usano lingue diverse usando le funzionalità di trascrizione e traduzione offerte da Video Indexer.
Monetizzazione Aumentare il valore dei video. I settori che si basano sui ricavi degli annunci, ad esempio i media di notizie e i social media, possono fornire annunci pertinenti usando le informazioni dettagliate estratte come segnali aggiuntivi al server degli annunci.
Moderazione del contenuto Mantenere gli utenti al sicuro dal contenuto inappropriato e verificare che il contenuto pubblicato corrisponda ai valori dell'organizzazione usando modelli di moderazione del contenuto testuale e visivo.
Consigli Migliorare l'engagement degli utenti evidenziando i momenti video pertinenti per gli utenti. Contrassegnando ogni video con metadati aggiuntivi, è possibile consigliare i video più rilevanti ed evidenziare le parti che soddisfano le esigenze degli utenti.

Casi d'uso di Video Indexer supportati da Azure Arc

La tabella seguente fornisce un elenco dei possibili casi d'uso per Video Indexer abilitati da Azure Arc.

Caso d'uso Descrizione
Commercio al dettaglio Ottimizzare i layout dei negozi e migliorare l'esperienza e la sicurezza dei clienti. Monitorare il numero di clienti nelle righe di checkout in tempo reale per ottimizzare il personale e ridurre i tempi di attesa.
Produzione Garantire il controllo della qualità e la sicurezza dei lavoratori tramite l'analisi video. Rilevare i lavoratori che non indossano un equipaggiamento protettivo con il rilevamento in tempo reale di eventi critici.
Sicurezza moderna Rilevare e identificare i problemi di sicurezza e sicurezza prima che causino un rischio.
Governance dei dati Portare l'intelligenza artificiale al contenuto. Usare Video Indexer abilitato da Arc quando non è possibile spostare il contenuto indicizzato dall'ambiente locale al cloud a causa di normative, decisioni sull'architettura o archivi dati di grandi dimensioni.
Pre-indicizzazione Indicizzare il contenuto prima di caricarlo nel cloud. Preordina l'archivio video o audio locale e quindi caricalo successivamente solo per l'indicizzazione standard o avanzata nel cloud.