Compartilhar via


Copiar ou clonar um data factory no Azure Data Factory

APLICA-SE A: Azure Data Factory Azure Synapse Analytics

Dica

Data Factory no Microsoft Fabric é a próxima geração de Azure Data Factory, com uma arquitetura mais simples, IA interna e novos recursos. Se você não estiver familiarizado com a integração de dados, comece com Fabric Data Factory. As cargas de trabalho existentes do ADF podem ser atualizadas para Fabric para acessar novos recursos em ciência de dados, análise em tempo real e relatórios.

Este artigo descreve como copiar ou clonar um data factory em Azure Data Factory.

Casos de uso para clonar um data factory

Aqui estão algumas das circunstâncias em que você pode achar útil copiar ou clonar um data factory:

  • Mover o Data Factory para uma nova região. A melhor maneira de mover o Data Factory para uma região diferente é criando uma cópia na região de destino e excluindo o já existente.

  • Renomeando o Data Factory. Azure não dá suporte à renomeação de recursos. Se quiser renomear um data factory, você deve cloná-lo com um nome diferente e, em seguida, excluir o já existente.

  • Alterações de depuração quando os recursos de depuração não são suficientes. Na maioria dos cenários, você pode usar Depurar. Em alguns casos, testar as alterações em um ambiente de testes clonado faz mais sentido. Por exemplo, o comportamento dos seus pipelines ETL parametrizados quando um gatilho é acionado na chegada de um arquivo, em vez de durante um intervalo de tempo variável, pode não ser facilmente testável apenas por meio de depuração. Nesses casos, talvez você queira clonar um ambiente sandbox para testes. Como a Azure Data Factory cobra principalmente pelo número de execuções, uma segunda fábrica não gera cobranças adicionais.

Como clonar um Data Factory

  1. Como pré-requisito, primeiro você precisa criar seu data factory de destino no portal do Azure.

  2. Se você estiver no modo GIT:

    1. Sempre que você publica no portal, o modelo de Resource Manager da fábrica é salvo no GIT no branch adf_publish
    2. Conecte o novo alocador com o mesmo repositório e faça o build por meio do branch adf_publish. Recursos, como pipelines, conjuntos de dados e gatilhos, serão transferidos
  3. Se você estiver no modo ao vivo:

    1. A interface do usuário do Data Factory permite exportar todo o conteúdo do data factory para um arquivo de modelo de Resource Manager e um arquivo de parâmetro. Eles podem ser acessados a partir do botão ARM template \ Exportar modelo do Gerenciador de Recursos no portal.
    2. Você pode fazer as alterações necessárias no arquivo de parâmetros e inserir os novos valores para a nova fábrica
    3. Em seguida, você pode implantá-lo por meio de métodos de implantação de modelo de Resource Manager padrão. Para obter etapas detalhadas, consulte Implantar recursos com modelos do ARM
  4. Se você tem um runtime de integração auto-hospedado no alocador de origem, você precisa recriá-lo com o mesmo nome no alocador de destino. Se você quiser compartilhar o Integration Runtime auto-hospedado entre alocadores diferentes, poderá usar o padrão publicado aqui no IR auto-hospedado de compartilhamento.

  5. Por motivos de segurança, o modelo de Resource Manager gerado não conterá informações secretas, por exemplo, senhas para serviços vinculados. Por isso você precisa fornecer as credenciais como parâmetros de implantação. Se a entrada manual de credencial não for desejável para suas configurações, considere recuperar as cadeias de conexão e senhas de Azure Key Vault em vez disso. Veja mais

Examine as diretrizes para criar um data factory no portal Azure em Criar um data factory usando a interface do usuário Azure Data Factory.