Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Questo articolo offre una panoramica delle opzioni disponibili per la creazione e la gestione delle aree di lavoro.
Che cos'è un'area di lavoro?
Un'area di lavoro è una distribuzione di Azure Databricks in un account del servizio cloud. Fornisce un ambiente unificato per l'uso degli asset di Azure Databricks per un set specificato di utenti.
Sono disponibili due tipi di aree di lavoro di Databricks:
- Aree di lavoro serverless: una distribuzione dell'area di lavoro nell'account Azure Databricks preconfigurato con il calcolo serverless e l'archiviazione predefinita per offrire un'esperienza completamente serverless. È comunque possibile connettersi all'archiviazione cloud dalle aree di lavoro serverless.
- Aree di lavoro ibride: detta anche area di lavoro classica , questa distribuzione dell'area di lavoro effettua il provisioning delle risorse di archiviazione e calcolo nell'account Azure esistente. Il calcolo serverless è ancora disponibile nelle aree di lavoro ibride.
Requisiti
Prima di creare un'area di lavoro di Azure Databricks, è necessario avere una sottoscrizione di Azure che non è una sottoscrizione di valutazione gratuita.
Se si dispone di un account gratuito, completare la procedura seguente:
- Vai al tuo profilo e modifica la tua sottoscrizione impostandola su pay-as-you-go. Consulta account gratuito di Azure.
- Rimuovere il limite di spesa.
- Richiedere un aumento della quota per le vCPU nell'area.
Autorizzazioni di Azure necessarie
Per creare un'area di lavoro di Azure Databricks, è necessario essere uno dei seguenti:
- Un utente con il ruolo di Collaboratore o di Proprietario a livello di sottoscrizione Azure.
- Un utente con una definizione di ruolo personalizzata con l'elenco di autorizzazioni seguente:
Microsoft.Databricks/workspaces/*Microsoft.Resources/subscriptions/resourceGroups/readMicrosoft.Resources/subscriptions/resourceGroups/writeMicrosoft.Databricks/accessConnectors/*Microsoft.Compute/register/actionMicrosoft.ManagedIdentity/register/actionMicrosoft.Storage/register/actionMicrosoft.Network/register/actionMicrosoft.Resources/deployments/validate/actionMicrosoft.Resources/deployments/writeMicrosoft.Resources/deployments/read
Annotazioni
Le autorizzazioni Microsoft.Compute/register/action, Microsoft.ManagedIdentity/register/action, Microsoft.Storage/register/action, Microsoft.Network/register/action non sono necessarie se questi provider sono già registrati nella sottoscrizione. Consulta Registra il provider di risorse.
Scelta di un tipo di area di lavoro
Le sezioni seguenti descrivono il tipo di area di lavoro migliore per i casi d'uso comuni. Usare questi consigli per decidere se distribuire un'area di lavoro serverless o classica.
Quando scegliere aree di lavoro serverless
Le aree di lavoro serverless sono la scelta migliore per la maggior parte dei casi d'uso e il modo più semplice per iniziare a usare casi d'uso operativi e consumer, ad esempio Lakebase, Genie e Databricks Apps.
Le aree di lavoro serverless sono la scelta migliore per i casi d'uso seguenti:
- Consentire agli utenti aziendali di accedere a Databricks One
- Creazione di dashboard di intelligenza artificiale/BI
- Creazione di app Databricks
- Esecuzione di analisi esplorative con notebook o sql warehouse
- Connessione ai provider SaaS tramite Lakehouse Federation (ma non Lakeflow Connect)
- Uso di Genie Spaces per i casi d'uso aziendali
- Uso di funzionalità di intelligenza artificiale come la ricerca vettoriale, la gestione dei modelli, le funzioni di intelligenza artificiale e i mattoni dell'agente
- Creazione di pipeline dichiarative serverless per Spark Lakeflow
Quando scegliere le aree di lavoro classiche
Le aree di lavoro classiche sono la scelta migliore per i casi d'uso seguenti:
- Conversione di codice Spark legacy esistente che usa RDD Spark
- Uso di Scala o R come linguaggio di codifica principale
- Dati in streaming che richiedono intervalli di trigger basati sul tempo
- Connessione diretta a sistemi locali o database privati tramite Lakeflow Connect
Opzioni di creazione dell'area di lavoro
Esistono diversi modi per distribuire un'area di lavoro di Azure Databricks. Il metodo di distribuzione standard è tramite il portale di Azure o Terraform.
- Distribuire un'area di lavoro usando il portale di Azure
- Distribuire un'area di lavoro usando Terraform
Inoltre, è possibile creare aree di lavoro usando gli strumenti seguenti: