Kommentar
Åtkomst till den här sidan kräver auktorisering. Du kan prova att logga in eller ändra kataloger.
Åtkomst till den här sidan kräver auktorisering. Du kan prova att ändra kataloger.
Den här sidan besvarar vanliga frågor om SQL Server-anslutningsappen i Databricks Lakeflow Connect.
Vanliga frågor och svar om hanterade allmänna anslutningar
Svaren i Vanliga frågor och svar om hanterade anslutningsappar gäller för alla hanterade anslutningsappar i Lakeflow Connect. Fortsätt läsa för anslutningsspecifika vanliga frågor och svar.
Om pipelinen misslyckas, återupptas inmatningen utan dataförlust?
Ja. Databricks håller reda på vad anslutningen har extraherat från källan och tillämpat i destinationen. Om något händer kan Databricks återupptas vid den tidpunkten så länge loggarna finns kvar i källdatabasen. Detta kan påverkas om pipelinen inte körs innan loggkvarhållningsperioden tar bort loggarna, vilket kräver en fullständig uppdatering av måltabellerna.
Avbildar anslutningsappen tidszoner för datum- och tidskolumner?
Nej. Datum och tid matas in i UTC-format.
Kan jag anpassa schemat för inmatningsgatewayen?
Nej, inmatningsgatewayen måste köras i kontinuerligt läge för att undvika att ändringar förloras på grund av loggkvarhållning. Om ändringarna har släppts krävs en fullständig uppdatering för alla tabeller.
Hur hanterar anslutningsappen en tabell utan primärnyckel?
Anslutningsappen behandlar alla kolumner utom stora objekt som en paketerad primärnyckel. Om det finns dubbletter av rader i källtabellen matas dessa rader in som en enda rad i måltabellen.
Hur ofta kan jag schemalägga att inmatningspipelinen ska köras?
Det finns ingen gräns för hur ofta inmatningspipelinen kan schemaläggas att köras. Databricks rekommenderar dock minst 5 minuter mellan intervallen eftersom det tar lite tid för den serverlösa beräkningen att startas. Databricks stöder inte körning av inmatningspipelinen i kontinuerligt läge.
Varför visas inte alla rader från min databas i den första pipelinekörningen?
Inmatningsgatewayen extraherar historiska data och CDC-data så snart den börjar köra. Inmatningspipelinen kan köras innan alla dessa data har extraherats, vilket resulterar i en partiell tillämpning av data i måltabeller. Det kan kräva flera körningar av inmatningspipelinene för att alla data ska vara extraherade och tillämpade på måltabellerna.
Min inmatningsgateway tar lång tid på sig att starta. Hur åtgärdar jag det?
Gatewayer körs på klassisk beräkning och etablerar en virtuell dator (VM) vid varje start. Om det tar längre tid än några minuter att starta bör du tänka på följande:
- Växla till den aktuella pipelinekanalen. Det här är den vanligaste korrigeringen. Förhandsversioner av kanaler har längre starttider. Du kan ändra detta i användargränssnittet (i pipelinens avancerade inställningar under Kanal), paketresursfil eller pipelinespecifikation.
- Starta inte om gatewayn mellan datainsamlingar. Gatewayen är utformad för att köras kontinuerligt. Om den stoppas och startas om etableras den virtuella datorn igen vid varje omstart och det riskerar att saknas ändringsloggar om källan trunkerar dem medan gatewayen är nere.
Om gatewayen har fastnat i ett starttillstånd i 15 minuter eller mer skapar du ett supportärende.
Detta gäller endast för gatewayer. Inmatningspipelines körs på serverlös beräkning och startar snabbt.
Kan jag mata in från en läsreplik eller en sekundär instans?
Nej. Stödet är begränsat till primära SQL Server-instanser. Det beror på att ändringsspårning och ändringsdatainsamling inte stöds på läsrepliker eller sekundära instanser.