Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Il connettore Confluence gestito in Lakeflow Connect consente di inserire dati da Confluence in Azure Databricks.
Cosa sapere prima di iniziare
| Argomento | Perché è importante |
|---|---|
| Persona utente di Azure Databricks | Il flusso di lavoro dipende dalla tipologia di utente di Azure Databricks:
|
| Metodo di autenticazione | I passaggi per creare una connessione dipendono dal metodo di autenticazione scelto. Per i metodi supportati, vedere Metodi di autenticazione. |
| Interfaccia | I passaggi per creare una pipeline dipendono dall'interfaccia . |
| Frequenza di ingestione | La pianificazione della pipeline dipende dai requisiti di latenza e di costi. |
| Modelli comuni | A seconda delle esigenze di inserimento, la pipeline potrebbe usare configurazioni come il rilevamento della cronologia, la selezione delle colonne e il filtro delle righe. Le configurazioni supportate variano in base al connettore. Vedere Disponibilità delle funzionalità. |
Iniziare l'acquisizione da Confluence
La tabella seguente offre una panoramica del processo di ingestione end-to-end di Confluence, in base al tipo di utente:
| User | Gradi |
|---|---|
| Amministratore di sistema |
|
| Non amministratore | Usare qualsiasi interfaccia supportata per creare una pipeline da una connessione esistente. Vedere Inserire dati da Confluence. |