Nota
O acesso a esta página requer autorização. Pode tentar iniciar sessão ou alterar os diretórios.
O acesso a esta página requer autorização. Pode tentar alterar os diretórios.
Importante
O Autoscaling do Lakebase é a versão mais recente do Lakebase, com computação autoescalável, escala até zero, ramificação e restauração instantânea. Para regiões suportadas, consulte Disponibilidade de Regiões. Se é utilizador do Lakebase Provisioned, consulte Lakebase Provisioned.
No final deste guia, terá uma base de dados Postgres a funcionar com dados de exemplo, conectada ao Unity Catalog, com dados a fluir entre o Lakebase e o Databricks lakehouse.
Passos: (1) Criar um projeto → (2) Ligar → (3) Criar uma tabela → (4) Registar no Catálogo Unity → (5) Servir dados
Passo 1: Crie o seu primeiro projeto
Abre a aplicação Lakebase a partir do comutador de apps.
Selecione Autoscaling para aceder à interface de Autoscaling do Lakebase.
Clique em Novo projeto. Dá um nome ao teu projeto e seleciona a versão do Postgres. O seu projeto é criado com um único production branch, uma base de dados padrão databricks_postgres e recursos de computação configurados para o branch.
Pode demorar alguns momentos até o seu computador ser ativado. O cálculo para o production ramo está sempre ativado por padrão (o "scale-to-zero" está desativado), mas poderá configurar esta definição se necessário.
A região do seu projeto é automaticamente definida para a região do seu espaço de trabalho.
Saiba mais: Criar um projeto | Escalar | automaticamente até zero
Passo 2: Ligue-se à sua base de dados
A partir do seu projeto, selecione o ramo de produção e clique em Conectar. As strings de ligação funcionam com qualquer cliente Postgres padrão (psql, pgAdmin, DBeaver ou frameworks de aplicações).
Para se ligar à sua identidade Databricks, copie o psql excerto do diálogo de ligação e cole o token OAuth quando solicitado:
psql 'postgresql://your-email@databricks.com@ep-abc-123.databricks.com/databricks_postgres?sslmode=require'
Saiba mais: Conexão quickstart | psql | pgAdmin | Clientes Postgres
Passo 3: Crie a sua primeira tabela
O Lakebase SQL Editor vem pré-carregado com SQL de exemplo. A partir do seu projeto, selecione o ramo de produção , abra o SQL Editor e execute as instruções fornecidas para criar uma playing_with_lakebase tabela e inserir dados de exemplo.
Saiba mais: Editor SQL | Editor de Tabelas | Clientes Postgres
Passo 4: Registar-se no Catálogo Unity
A tua base de dados Lakebase está a funcionar, mas é invisível para o resto da plataforma Databricks até a registares no Unity Catalog. Uma vez registado, pode consultar tabelas Lakebase a partir do Databricks SQL, juntar dados operacionais com a Lakehouse Analytics e aplicar governação unificada.
No Explorador de Catálogos, crie um novo catálogo com Lakebase Autoscaling como tipo, apontando para a production branch do seu projeto e para a databricks_postgres base de dados.
Agora pode consultar a partir de um SQL warehouse:
SELECT * FROM lakebase_catalog.public.playing_with_lakebase;
Saiba mais: Registe-se no Catálogo Unity
Passo 5: Forneça os dados do lakehouse na sua aplicação
Tabelas sincronizadas trazem dados analíticos do Unity Catalog para a sua base de dados Lakebase, permitindo que as aplicações os consultem com leituras transacionais de baixa latência. Cria uma tabela de exemplo do Unity Catalog e depois sincroniza-a com o Lakebase.
Num warehouse SQL ou caderno, crie uma tabela de origem:
CREATE TABLE main.default.user_segments AS
SELECT * FROM VALUES
(1001, 'premium', 2500.00, 'high'),
(1002, 'standard', 450.00, 'medium'),
(1003, 'premium', 3200.00, 'high'),
(1004, 'basic', 120.00, 'low')
AS segments(user_id, tier, lifetime_value, engagement);
Agora sincroniza esta tabela com o Lakebase. No Catálogo Explorer, crie uma tabela sincronizada a partir de user_segments com o modo Snapshot, para a base de dados do seu projeto databricks_postgres. O modo snapshot copia os dados uma vez. Para atualizações contínuas, utilize o modo Triggered ou Contínuo.
Quando a sincronização termina, os dados ficam disponíveis no Lakebase como default.user_segments_synced. Executar uma consulta no Lakebase SQL Editor:
SELECT * FROM "default".user_segments_synced WHERE engagement = 'high';
Observação
default deve ser citado porque é uma palavra-chave reservada do PostgreSQL. O esquema da tabela sincronizada herda o nome do esquema do Unity Catalog, por isso, se o seu esquema for nomeado default, deve sempre citá-lo nas consultas. As aspas à volta de outros identificadores são opcionais.
As suas análises em Lakehouse estão agora prontas para servir a partir da sua base de dados transacional.
Saiba mais: Tabelas sincronizadas | Modos de sincronização | Mapeamento de tipos de dados
Próximos passos
- Crie uma aplicação:Databricks Tutorial de Aplicações | Aplicações externas
- Desenvolver com ramos:Tutorial de desenvolvimento baseado em ramos
- Configure a sua equipa:Conceda acesso ao projeto e à base de dados
- Explore a plataforma:Conceitos Centrais | Visão Geral dos Projetos | Todos os Tutoriais