Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
APLICA-SE A:
Azure Data Factory
Azure Synapse Analytics
Dica
Data Factory no Microsoft Fabric é a próxima geração de Azure Data Factory, com uma arquitetura mais simples, IA interna e novos recursos. Se você não estiver familiarizado com a integração de dados, comece com Fabric Data Factory. As cargas de trabalho existentes do ADF podem ser atualizadas para Fabric para acessar novos recursos em ciência de dados, análise em tempo real e relatórios.
Este artigo descreve como usar a Atividade de Cópia nos pipelines do Azure Data Factory e do Synapse Analytics para copiar dados de um banco de dados PostgreSQL. Ele se baseia no artigo visão geral da atividade de cópia que apresenta uma visão geral da atividade de cópia.
Importante
O conector do PostgreSQL V1 está no estágio de remoção. É recomendável atualizar o conector postgreSQL da V1 para a V2.
Funcionalidades com suporte
Esse conector do PostgreSQL é compatível com as seguintes funcionalidades:
| Funcionalidades com suporte | IR |
|---|---|
| Copiar atividade (origem/-) | (1) (2) |
| Atividade de pesquisa | (1) (2) |
① Runtime de integração do Azure ② Runtime de integração auto-hospedado
Para obter uma lista de armazenamentos de dados compatíveis como fontes ou destinos pela atividade de cópia, consulte a tabela Armazenamentos de dados compatíveis.
Especificamente, este conector do PostgreSQL dá suporte ao PostgreSQL versão 7.4 e superior.
Pré-requisitos
Se o armazenamento de dados estiver localizado dentro de uma rede local interna, uma rede virtual do Azure ou uma Amazon Virtual Private Cloud (VPC), você precisará configurar um runtime de integração auto-hospedado para se conectar a ele.
Se o armazenamento de dados for um serviço de dados de nuvem gerenciado, você poderá usar o Azure Integration Runtime. Se o acesso for restrito a IPs aprovados nas regras de firewall, você poderá adicionar Azure Integration Runtime IPs à lista de permissões.
Você também pode usar o recurso managed virtual network integration runtime no Azure Data Factory para acessar a rede local sem instalar e configurar um runtime de integração auto-hospedada.
Para obter mais informações sobre os mecanismos de segurança de rede e as opções compatíveis com o Data Factory, consulte Estratégias de acesso a dados.
O Integration Runtime fornece um driver PostgreSQL interno a partir da versão 3.7, portanto, você não precisa instalar manualmente nenhum driver.
Começando
Para executar uma atividade de cópia com um pipeline, você pode usar uma das seguintes ferramentas ou SDKs:
- Ferramenta Copiar Dados
- Portal do Azure
- .NET SDK
- SDK Python
- Azure PowerShell
- REST API
- modelo Azure Resource Manager
Criar um serviço vinculado para PostgreSQL usando a interface do usuário
Use as etapas a seguir para criar um serviço vinculado ao PostgreSQL na interface do usuário do portal Azure.
Navegue até a guia Gerenciar no workspace do Azure Data Factory ou do Synapse e selecione Serviços Vinculados e clique em Novo:
Procure por PostgreSQL e selecione o conector do PostgreSQL.
Configure os detalhes do serviço, teste a conexão e crie o novo serviço vinculado.
Detalhes da configuração do conector
As seções que se seguem fornecem detalhes sobre as propriedades que são usadas para definir entidades do Data Factory específicas ao conector do PostgreSQL.
Propriedades do serviço vinculado
As propriedades a seguir têm suporte para o serviço vinculado do PostgreSQL:
| Propriedade | Descrição | Obrigatório |
|---|---|---|
| tipo | A propriedade type deve ser definida como: PostgreSql | Sim |
| connectionString | Uma cadeia de conexão ODBC para se conectar ao Banco de Dados Azure para PostgreSQL. Você também pode colocar a senha no Azure Key Vault e extrair a configuração password da cadeia de conexão. Consulte os exemplos a seguir e o artigo Armazenando credenciais no Azure Key Vault para mais detalhes. |
Sim |
| connectVia | O Integration Runtime a ser usado para se conectar ao armazenamento de dados. Saiba mais na seção Pré-requisitos. Se não for especificado, ele usará o Azure Integration Runtime padrão. | Não |
Um connection string típico é Server=<server>;Database=<database>;Port=<port>;UID=<username>;Password=<Password>. Mais propriedades que podem ser definidas para seu caso:
| Propriedade | Descrição | Opções | Obrigatório |
|---|---|---|---|
| EncryptionMethod (EM) | O método que o driver usa para criptografar dados enviados entre o driver e o servidor de banco de dados. Por exemplo, EncryptionMethod=<0/1/6>; |
0 (Sem criptografia) (Padrão) / 1 (SSL) / 6 (RequestSSL) | Não |
| ValidateServerCertificate (VSC) | Determina se o driver validará o certificado que é enviado pelo servidor de banco de dados quando a criptografia SSL está habilitada (Método de Criptografia = 1). Por exemplo, ValidateServerCertificate=<0/1>; |
0 (Desabilitado) (Padrão) / 1 (Habilitado) | Não |
Observação
Para ter a verificação SSL completa por meio de uma conexão ODBC, ao usar o Integration Runtime auto-hospedado, você deve usar uma conexão do tipo ODBC em vez do conector PostgreSQL explicitamente e concluir a seguinte configuração:
- Configure o DSN em todos os servidores SHIR.
- Coloque o certificado adequado para PostgreSQL em C:\Windows\ServiceProfiles\DIAHostService\AppData\Roaming\postgresql\root.crt nos servidores SHIR. É aqui que o driver ODBC procura > em busca do certificado SSL para verificar quando ele se conectará ao banco de dados.
- Na conexão do seu data factory, use uma conexão de tipo ODBC, com a sua cadeia de conexão apontando para o DSN criado nos seus servidores SHIR.
Exemplo:
{
"name": "PostgreSqlLinkedService",
"properties": {
"type": "PostgreSql",
"typeProperties": {
"connectionString": "Server=<server>;Database=<database>;Port=<port>;UID=<username>;Password=<Password>"
},
"connectVia": {
"referenceName": "<name of Integration Runtime>",
"type": "IntegrationRuntimeReference"
}
}
}
Example: armazene a senha no Azure Key Vault
{
"name": "PostgreSqlLinkedService",
"properties": {
"type": "PostgreSql",
"typeProperties": {
"connectionString": "Server=<server>;Database=<database>;Port=<port>;UID=<username>;",
"password": {
"type": "AzureKeyVaultSecret",
"store": {
"referenceName": "<Azure Key Vault linked service name>",
"type": "LinkedServiceReference"
},
"secretName": "<secretName>"
}
},
"connectVia": {
"referenceName": "<name of Integration Runtime>",
"type": "IntegrationRuntimeReference"
}
}
}
Se estava usando o serviço vinculado do PostgreSQL com a seguinte carga útil, ele ainda terá suporte como está, porém, é recomendável usar um novo de agora em diante.
Carga anterior:
{
"name": "PostgreSqlLinkedService",
"properties": {
"type": "PostgreSql",
"typeProperties": {
"server": "<server>",
"database": "<database>",
"username": "<username>",
"password": {
"type": "SecureString",
"value": "<password>"
}
},
"connectVia": {
"referenceName": "<name of Integration Runtime>",
"type": "IntegrationRuntimeReference"
}
}
}
Propriedades do conjunto de dados
Para obter uma lista completa das seções e propriedades disponíveis para definir os conjuntos de dados, confira o artigo sobre conjuntos de dados. Esta seção fornece uma lista das propriedades com suporte pelo conjunto de dados do PostgreSQL.
Para copiar dados do PostgreSQL, as seguintes propriedades são compatíveis:
| Propriedade | Descrição | Obrigatório |
|---|---|---|
| tipo | A propriedade type do conjunto de dados deve ser definida como PostgreSqlTable | Sim |
| esquema | Nome do esquema. | Não (se "query" na fonte da atividade for especificada) |
| tabela | Nome da tabela. | Não (se "query" na fonte da atividade for especificada) |
| nome da tabela | Nome da tabela com esquema. Essa propriedade é compatível com versões anteriores. Use schema e table para uma nova carga de trabalho. |
Não (se "query" na fonte da atividade for especificada) |
Exemplo
{
"name": "PostgreSQLDataset",
"properties":
{
"type": "PostgreSqlTable",
"typeProperties": {},
"schema": [],
"linkedServiceName": {
"referenceName": "<PostgreSQL linked service name>",
"type": "LinkedServiceReference"
}
}
}
Se você estava usando o conjunto de dados com tipos RelationalTable, ele ainda tem suporte como está, mas é recomendável usar o novo de agora em diante.
Propriedades da atividade de cópia
Para obter uma lista completa de seções e propriedades disponíveis para definir atividades, consulte o artigo Pipelines. Esta seção fornece uma lista das propriedades com suporte pela fonte do PostgreSQL.
PostgreSQL como fonte
Para copiar dados do PostgreSQL, as seguintes propriedades têm suporte na seção copy activity source:
| Propriedade | Descrição | Obrigatório |
|---|---|---|
| tipo | A propriedade type da origem da atividade de cópia deve ser definida como: PostgreSqlSource | Sim |
| consulta | Utiliza a consulta SQL personalizada para ler os dados. Por exemplo: "query": "SELECT * FROM \"MySchema\".\"MyTable\"". |
Não (se "tableName" no conjunto de dados for especificado) |
Observação
Os nomes de esquema e tabela diferenciam maiúsculas de minúsculas. Coloque-os em "" (aspas duplas) na consulta.
Exemplo:
"activities":[
{
"name": "CopyFromPostgreSQL",
"type": "Copy",
"inputs": [
{
"referenceName": "<PostgreSQL input dataset name>",
"type": "DatasetReference"
}
],
"outputs": [
{
"referenceName": "<output dataset name>",
"type": "DatasetReference"
}
],
"typeProperties": {
"source": {
"type": "PostgreSqlSource",
"query": "SELECT * FROM \"MySchema\".\"MyTable\""
},
"sink": {
"type": "<sink type>"
}
}
}
]
Se você estava usando a fonte com tipos RelationalSource, ela ainda tem suporte como está, mas é recomendável usar a nova no futuro.
Pesquisar propriedades de atividade
Para saber detalhes sobre as propriedades, verifique Pesquisar atividade.
Conteúdo relacionado
Para obter uma lista de armazenamentos de dados com suporte como coletores e fontes da atividade de cópia, confira os armazenamentos de dados com suporte.