Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
APLICA-SE A:
Azure Data Factory
Azure Synapse Analytics
Dica
Data Factory no Microsoft Fabric é a próxima geração de Azure Data Factory, com uma arquitetura mais simples, IA interna e novos recursos. Se você não estiver familiarizado com a integração de dados, comece com Fabric Data Factory. As cargas de trabalho existentes do ADF podem ser atualizadas para Fabric para acessar novos recursos em ciência de dados, análise em tempo real e relatórios.
Se você não estiver familiarizado com Azure Data Factory, consulte Introduction para Azure Data Factory.
Neste tutorial, você aprenderá as práticas recomendadas que podem ser aplicadas ao gravar arquivos no ADLS Gen2 ou Armazenamento de Blobs do Azure usando fluxos de dados. Você precisará de acesso a uma conta do Armazenamento de Blobs do Azure ou uma conta do Azure Data Lake Store Gen2 para ler um arquivo parquet e armazenar os resultados em pastas.
Pré-requisitos
- Assinatura do Azure. Se você não tiver uma assinatura Azure, crie uma conta de Azure free antes de começar.
- Azure conta de armazenamento. Você usa o armazenamento do ADLS como um armazenamento de dados de origem e do coletor. Se você não tiver uma conta de armazenamento, consulte Criar uma conta de armazenamento Azure para ver as etapas para criar uma.
As etapas neste tutorial supõem que você tem
Criar uma fábrica de dados
Nesta etapa, você cria um data factory e abre a UX do Data Factory para criar um pipeline no data factory.
Abra Microsoft Edge ou Google Chrome. Atualmente, a interface do usuário do Data Factory tem suporte apenas nos navegadores da Web Microsoft Edge e do Google Chrome.
No menu à esquerda, escolha Criar um recurso>Integração>Data Factory
Na página Nova fábrica de dados, em Nome, insira ADFTutorialDataFactory
Selecione a assinatura do Azure na qual você deseja criar a fábrica de dados.
Em Grupo de Recursos, use uma das seguintes etapas:
a. Selecione Usar existentee selecione um grupo de recursos existente na lista suspensa.
b. Selecione Criar novoe insira o nome de um grupo de recursos. Para saber mais sobre grupos de recursos, consulte Use grupos de recursos para gerenciar seus recursos Azure.
Em Versão, selecione V2.
Em Local, selecione uma localização para o Data Factory. Apenas os locais com suporte são exibidos na lista suspensa. Armazenamentos de dados (por exemplo, Armazenamento do Azure e Banco de Dados SQL) e computação (por exemplo, Azure HDInsight) usados pelo data factory podem estar em outras regiões.
Selecione Criar.
Depois que a criação for concluída, você verá o aviso no centro de notificações. Selecione Ir para o recurso para navegar até a página do Data Factory.
Clique em Criar e Monitorar para iniciar a IU do Azure Data Factory em uma guia separada.
Criar um pipeline com uma atividade de fluxo de dados
Nesta etapa, você criará um pipeline que contém uma atividade de fluxo de dados.
Na home page do Azure Data Factory, selecione Orchestrate.
Na guia Geral do pipeline, insira DeltaLake como o Nome do pipeline.
Na barra superior da fábrica, deslize o controle deslizante de Depuração do Fluxo de Dados para a posição ligado. O modo de depuração permite testes interativos da lógica de transformação em um cluster do Spark em execução. Fluxo de Dados clusters levam de 5 a 7 minutos para aquecer, e é recomendado que os usuários ativem a depuração antes, se planejam desenvolver no Fluxo de Dados. Para saber mais, consulte Modo de depuração.
No painel Atividades, expanda o acordeão Mover e Transformar. Arraste e solte a atividade de Fluxo de Dados do painel para a tela do pipeline.
Criar lógica de transformação na tela de fluxo de dados
Você receberá qualquer dado de origem (neste tutorial, usaremos uma fonte de arquivo Parquet) e usará uma transformação de coletor para colocar os dados no formato Parquet usando os mecanismos mais eficazes para ETL do data lake.
Objetivos do tutorial
- Escolha qualquer um dos seus conjuntos de dados de origem em um novo fluxo de dados. Use fluxos de dados para particionar efetivamente seu conjunto de dados de destino.
- Colocar seus dados particionados em pastas de lakes do ADLS Gen2
Começar a partir de uma tela de fluxo de dados em branco
Primeiro, vamos configurar o ambiente de fluxo de dados para cada um dos mecanismos descritos abaixo para enviar dados no ADLS Gen2
- Clique na transformação de origem.
- Clique no botão novo ao lado de conjunto de dados no painel inferior.
- Escolha ou crie um conjunto de dados. Para esta demonstração, usaremos um conjunto de dados Parquet chamado de “User Data”.
- Adicione uma transformação de coluna derivada. Usaremos isso como uma maneira de definir os nomes de pasta desejados dinamicamente.
- Adicione uma transformação de coletor.
Saída de pasta hierárquica
É muito comum usar valores exclusivos nos dados para criar hierarquias de pastas para particionar esses dados no lake. Essa é uma maneira ideal de organizar e processar dados no lake e no Spark (o mecanismo de computação por trás dos fluxos de dados). No entanto, organizar a saída dessa maneira custará um pouco de desempenho. Você terá uma pequena redução no desempenho geral do pipeline com esse mecanismo no coletor.
- Volte ao designer de fluxo de dados e edite o fluxo de dados criado acima. Clique na transformação do coletor.
- Clique em Otimizar > Definir chave de particionamento >
- Escolha as colunas que você quer usar para definir a estrutura hierárquica de pastas.
- Observe que o exemplo a seguir usa ano e mês como as colunas para nomear a pasta. Os resultados serão pastas na forma
releaseyear=1990/month=8. - Ao acessar as partições de dados em uma fonte de fluxo de dados, você apontará apenas para a pasta de nível superior acima de
releaseyeare usará um padrão curinga para cada pasta seguinte, por exemplo:**/**/*.parquet - Para manipular os valores de dados ou mesmo se precisar gerar valores sintéticos para nomes de pastas, use a transformação de coluna derivada para criar os valores que você quer usar nos nomes de pasta.
Nomear pasta com valores de dados
Uma técnica de coletor com desempenho um pouco melhor para os dados do lake que usa ADLS Gen2, que não oferece o mesmo benefício do particionamento de chave/valor, é Name folder as column data. Enquanto o estilo de particionamento de chave da estrutura hierárquica permite que você processe fatias de dados com mais facilidade, essa técnica é uma estrutura de pastas nivelada que pode gravar dados mais rapidamente.
- Volte ao designer de fluxo de dados e edite o fluxo de dados criado acima. Clique na transformação do coletor.
- Clique em Otimizar > Definir particionamento > Usar particionamento atual.
- Clique em Configurações > Nomear pasta como dados de coluna.
- Escolha a coluna que você quer usar para gerar nomes de pastas.
- Para manipular os valores de dados ou mesmo se precisar gerar valores sintéticos para nomes de pastas, use a transformação de coluna derivada para criar os valores que você quer usar nos nomes de pasta.
Nomeie o arquivo segundo os valores de dados
As técnicas listadas nos tutoriais acima são bons casos de uso para a criação de categorias de pastas no data lake. O esquema de nomenclatura de arquivo padrão empregado por essas técnicas é usar o ID do trabalho do executor Spark. Às vezes, você pode querer definir o nome do arquivo de saída em um coletor de texto de fluxo de dados. Essa técnica só é sugerida para arquivos pequenos. O processo de mesclagem de arquivos de partição em um único arquivo de saída é um processo de execução prolongada.
- Volte ao designer de fluxo de dados e edite o fluxo de dados criado acima. Clique na transformação do coletor.
- Clique em Otimizar > Definir particionamento > Partição única. Esse é o requisito de partição única que cria um gargalo no processo de execução à medida que os arquivos são mesclados. Essa opção só é recomendada para arquivos pequenos.
- Clique em Configurações > Nomeie o arquivo como 'dados de coluna'.
- Escolha a coluna que você quer usar para gerar nomes de arquivos.
- Para manipular os valores de dados ou mesmo se precisar gerar valores sintéticos para nomes de arquivo, use a transformação de coluna derivada para criar os valores que você quer usar nos nomes de arquivo.
Conteúdo relacionado
Saiba mais sobre coletores de fluxo de dados.