Kommentar
Åtkomst till den här sidan kräver auktorisering. Du kan prova att logga in eller ändra kataloger.
Åtkomst till den här sidan kräver auktorisering. Du kan prova att ändra kataloger.
23–30 januari 2025
Dessa funktioner och förbättringar släpptes med 2025.04-versionen av DLT.
Databricks Runtime-versioner som används av den här versionen
Kanal:
- Aktuell (standard): Databricks Runtime 15.4
- FÖRHANDSVERSION: Databricks Runtime 15.4 eller 16.1
Not
Eftersom DLT-kanalversioner följer en löpande uppgraderingsprocess distribueras kanaluppgraderingar till olika regioner vid olika tidpunkter. Din version, inklusive Databricks Runtime-versioner, kanske inte uppdateras förrän en vecka eller mer efter det första lanseringsdatumet. Information om hur du hittar Databricks Runtime-versionen för en pipeline finns i Runtime-information.
Nya funktioner och förbättringar
Som standardinställning har nya Lakeflow Spark Deklarativa Pipelines stöd för att skapa och uppdatera materialiserade vyer och strömmande tabeller i flera kataloger och scheman. Det nya standardbeteendet för pipelinekonfiguration kräver att användarna anger ett målschema som blir standardschemat för pipelinen. Det
LIVEvirtuella schemat och tillhörande syntax krävs inte längre. Mer information finns i Ange målkatalogen och schemat, Konfigurera pipelines och LIVE-schema (äldre).Begäran
clone a pipelinei Databricks REST API är nu allmänt tillgänglig. Du kan använda den här begäran för att kopiera en befintlig pipeline som publicerar till Hive-metaarkivet till en ny pipeline som publicerar till Unity Catalog. Se Skapa en Unity Catalog-pipeline genom att klona en Hive-metastore-pipeline.Stöd för att visa mått för strömmande arbetsbelastningar för dina pipelineuppdateringar finns i offentlig förhandsversion. När du visar pipelineuppdateringar i Lakeflow Spark Deklarativa pipelines-användargränssnittet kan du nu visa mått som kvarvarande sekunder, kvarvarande byte, kvarvarande uppgifter och kvarvarande filer för varje strömmande flöde i pipelinen. Strömningsmått stöds för Spark Structured Streaming-källor, inklusive Apache Kafka, Amazon Kinesis och Auto Loader. Se Visa strömmande mätvärden.