Nota
O acesso a esta página requer autorização. Pode tentar iniciar sessão ou alterar os diretórios.
O acesso a esta página requer autorização. Pode tentar alterar os diretórios.
APLICA-SE A:
Azure Data Factory
Azure Synapse Analytics
Gorjeta
Data Factory em Microsoft Fabric é a próxima geração de Azure Data Factory, com uma arquitetura mais simples, IA incorporada e novas funcionalidades. Se és novo na integração de dados, começa pelo Fabric Data Factory. As cargas de trabalho existentes do ADF podem atualizar para o Fabric para aceder a novas capacidades em ciência de dados, análise em tempo real e relatórios.
Este artigo descreve como usar a Copy Activity nos pipelines Azure Data Factory e Synapse Analytics para copiar dados de uma base de dados PostgreSQL. Ele baseia-se no artigo Visão Geral da Atividade de Cópia que apresenta uma visão geral da atividade de cópia.
Importante
O conector PostgreSQL V1 está em fase de remoção. Recomenda-se atualizar o conector PostgreSQL de V1 para V2.
Capacidades suportadas
Este conector PostgreSQL é suportado para os seguintes recursos:
| Capacidades suportadas | IR |
|---|---|
| Atividade de cópia (fonte/-) | (1) (2) |
| Atividade de Pesquisa | (1) (2) |
(1) Runtime de integração Azure (2) Runtime de integração auto-hospedado
Para uma lista de armazenamentos de dados suportados como fontes/destinos pelo copy activity, consulte a tabela Armazenamentos de dados suportados.
Especificamente, este conector PostgreSQL suporta PostgreSQL versão 7.4 e superior.
Pré-requisitos
Se o seu armazenamento de dados estiver localizado numa rede local, numa rede virtual Azure ou na Amazon Virtual Private Cloud, precisa de configurar um runtime de integração auto-hospedado para se ligar a ele.
Se o seu armazenamento de dados for um serviço de dados na cloud gerido, pode usar o Azure Integration Runtime. Se o acesso for restrito a IPs aprovados nas regras do firewall, pode adicionar IPs Azure Integration Runtime à lista de autorizações.
Também pode usar a funcionalidade managed virtual network integration runtime no Azure Data Factory para aceder à rede local sem instalar e configurar um runtime de integração auto-hospedado.
Para mais informações sobre os mecanismos e opções de segurança de rede suportados pela Data Factory, consulte Estratégias de acesso de dados.
O Integration Runtime fornece um driver PostgreSQL incorporado a partir da versão 3.7, pelo que não precisa de instalar manualmente nenhum driver.
Introdução
Para realizar uma atividade de cópia num pipeline, pode usar uma das seguintes ferramentas ou SDKs:
- Ferramenta Copiar dados
- Portal do Azure
- .NET SDK
- Python SDK
- Azure PowerShell
- API REST
- Modelo do Azure Resource Manager
Criar um serviço vinculado ao PostgreSQL usando a interface do usuário
Use os passos seguintes para criar um serviço ligado ao PostgreSQL na interface do portal Azure.
Navegue até ao separador Gerir no seu espaço de trabalho Azure Data Factory ou Synapse e selecione Serviços Ligados, depois clique em Novo:
Procure Postgre e selecione o conector PostgreSQL.
Configure os detalhes do serviço, teste a conexão e crie o novo serviço vinculado.
Detalhes de configuração do conector
As seções a seguir fornecem detalhes sobre as propriedades usadas para definir entidades do Data Factory específicas para o conector PostgreSQL.
Propriedades do serviço vinculado
As seguintes propriedades são suportadas para o serviço vinculado PostgreSQL:
| Propriedade | Descrição | Obrigatório |
|---|---|---|
| tipo | A propriedade type deve ser definida como: PostgreSql | Sim |
| string de conexão | Uma cadeia de conexão ODBC para ligar ao Azure Database for PostgreSQL. Também podes colocar palavra-passe no Azure Key Vault e retirar a configuração password do connection string. Consulte os seguintes exemplos e o artigo Armazenar credenciais no Azure Key Vault para mais detalhes. |
Sim |
| ConecteVia | O Integration Runtime para ser usado para se ligar ao armazenamento de dados. Saiba mais na seção Pré-requisitos . Se não for especificado, usa o Azure Integration Runtime padrão. | Não |
Um connection string típico é Server=<server>;Database=<database>;Port=<port>;UID=<username>;Password=<Password>. Mais propriedades que pode definir de acordo com o seu caso:
| Propriedade | Descrição | Opções | Obrigatório |
|---|---|---|---|
| Método de criptografia (EM) | O método que o driver usa para criptografar dados enviados entre o driver e o servidor de banco de dados. Por exemplo, EncryptionMethod=<0/1/6>; |
0 (Sem criptografia) (padrão) / 1 (SSL) / 6 (RequestSSL) | Não |
| ValidateServerCertificate (VSC) | Determina se o driver valida o certificado enviado pelo servidor de banco de dados quando a criptografia SSL está habilitada (Método de Criptografia=1). Por exemplo, ValidateServerCertificate=<0/1>; |
0 (Desativado) (Padrão) / 1 (Habilitado) | Não |
Nota
Para obter verificação SSL completa através da ligação ODBC ao utilizar o Self Hosted Integration Runtime, deve usar explicitamente uma ligação do tipo ODBC em vez do conector PostgreSQL, e completar a seguinte configuração:
- Configure o DSN em qualquer servidor SHIR.
- Coloque o certificado correto para PostgreSQL em C:\Windows\ServiceProfiles\DIAHostService\AppData\Roaming\postgresql\root.crt nos servidores SHIR. É aqui que o driver ODBC procura > o certificado SSL para verificar quando ele se conecta ao banco de dados.
- Na tua ligação do Data Factory, utiliza uma ligação do tipo ODBC, com a tua "connection string" a apontar para o DSN que criaste nos teus servidores SHIR.
Exemplo:
{
"name": "PostgreSqlLinkedService",
"properties": {
"type": "PostgreSql",
"typeProperties": {
"connectionString": "Server=<server>;Database=<database>;Port=<port>;UID=<username>;Password=<Password>"
},
"connectVia": {
"referenceName": "<name of Integration Runtime>",
"type": "IntegrationRuntimeReference"
}
}
}
Exemplo: armazenar a palavra-passe em Azure Key Vault
{
"name": "PostgreSqlLinkedService",
"properties": {
"type": "PostgreSql",
"typeProperties": {
"connectionString": "Server=<server>;Database=<database>;Port=<port>;UID=<username>;",
"password": {
"type": "AzureKeyVaultSecret",
"store": {
"referenceName": "<Azure Key Vault linked service name>",
"type": "LinkedServiceReference"
},
"secretName": "<secretName>"
}
},
"connectVia": {
"referenceName": "<name of Integration Runtime>",
"type": "IntegrationRuntimeReference"
}
}
}
Se estava a usar o serviço vinculado PostgreSQL com a seguinte carga útil, continua a ser suportado tal como está, embora se recomende que utilize o novo no futuro.
Carga útil anterior:
{
"name": "PostgreSqlLinkedService",
"properties": {
"type": "PostgreSql",
"typeProperties": {
"server": "<server>",
"database": "<database>",
"username": "<username>",
"password": {
"type": "SecureString",
"value": "<password>"
}
},
"connectVia": {
"referenceName": "<name of Integration Runtime>",
"type": "IntegrationRuntimeReference"
}
}
}
Propriedades do conjunto de dados
Para obter uma lista completa de seções e propriedades disponíveis para definir conjuntos de dados, consulte o artigo sobre conjuntos de dados. Esta seção fornece uma lista de propriedades suportadas pelo conjunto de dados PostgreSQL.
Para copiar dados do PostgreSQL, as seguintes propriedades são suportadas:
| Propriedade | Descrição | Obrigatório |
|---|---|---|
| tipo | A propriedade type do conjunto de dados deve ser definida como: PostgreSqlTable | Sim |
| esquema | Nome do esquema. | Não (se "consulta" na fonte da atividade for especificado) |
| tabela | Nome da tabela. | Não (se "consulta" na fonte da atividade for especificado) |
| nome da tabela | Nome da tabela com esquema. Esta propriedade é suportada para compatibilidade com versões anteriores. Use schema e table para nova carga de trabalho. |
Não (se "consulta" na fonte da atividade for especificado) |
Exemplo
{
"name": "PostgreSQLDataset",
"properties":
{
"type": "PostgreSqlTable",
"typeProperties": {},
"schema": [],
"linkedServiceName": {
"referenceName": "<PostgreSQL linked service name>",
"type": "LinkedServiceReference"
}
}
}
Se estiveste a usar o RelationalTable conjunto de dados digitado, ainda é suportado tal como está, mas recomenda-se que utilizes o novo daqui para a frente.
Propriedades da atividade de cópia
Para uma lista completa de secções e propriedades disponíveis para definir atividades, consulte o artigo Pipelines. Esta seção fornece uma lista de propriedades suportadas pela fonte PostgreSQL.
PostgreSQL como fonte
Para copiar dados do PostgreSQL, as seguintes propriedades são suportadas na secção copy activity source:
| Propriedade | Descrição | Obrigatório |
|---|---|---|
| tipo | A propriedade de tipo da fonte da atividade de cópia deve ser definida como: PostgreSqlSource | Sim |
| consulta | Utilize a consulta SQL personalizada para ler os dados. Por exemplo: "query": "SELECT * FROM \"MySchema\".\"MyTable\"". |
Não (se "tableName" estiver especificado no conjunto de dados) |
Nota
Os nomes de esquema e de tabela são sensíveis a maiúsculas e minúsculas. Coloque-os entre "" (aspas duplas) na consulta.
Exemplo:
"activities":[
{
"name": "CopyFromPostgreSQL",
"type": "Copy",
"inputs": [
{
"referenceName": "<PostgreSQL input dataset name>",
"type": "DatasetReference"
}
],
"outputs": [
{
"referenceName": "<output dataset name>",
"type": "DatasetReference"
}
],
"typeProperties": {
"source": {
"type": "PostgreSqlSource",
"query": "SELECT * FROM \"MySchema\".\"MyTable\""
},
"sink": {
"type": "<sink type>"
}
}
}
]
Se você estava usando RelationalSource fonte digitada, ela ainda é suportada como está, enquanto você é sugerido para usar a nova no futuro.
Propriedades da atividade de consulta
Para saber detalhes sobre as propriedades, verifique a atividade de pesquisa.
Conteúdos relacionados
Para uma lista de armazenamentos de dados suportados como fontes e destinos pela copy activity, veja armazenamentos de dados suportados.