Kommentar
Åtkomst till den här sidan kräver auktorisering. Du kan prova att logga in eller ändra kataloger.
Åtkomst till den här sidan kräver auktorisering. Du kan prova att ändra kataloger.
I den här artikeln beskrivs anslutningsegenskaperna som stöds av Databricks JDBC-drivrutinen, version 3 och senare.
Autentiseringsegenskaper
Följande autentiseringsegenskaper stöds av Databricks JDBC-drivrutinen. Mer information om hur du konfigurerar varje autentiseringsmetod finns i Autentiseringsinställningar för Databricks JDBC-drivrutinen. Egenskaperna är skiftlägesokänsliga.
| Fastighet | Standardvärde | Beskrivning |
|---|---|---|
AuthMech |
Krävs | Autentiseringsmekanismen, där 3 anger att mekanismen är en Azure Databricks personlig åtkomsttoken, och 11 anger att mekanismen är OAuth 2.0-token. Ytterligare egenskaper krävs för varje mekanism. Se Autentiseringsinställningar för Databricks JDBC-drivrutinen. |
Auth_AccessToken |
null |
En Azure Databricks OAuth-token eller en JSON-webbtoken (JWT) från en extern identitetsprovider. Krävs när Auth_Flow är 0 (token-genomströmning). Om du skickar en extern IdP-token byter Azure Databricks ut den mot en Azure Databricks token med hjälp av token-federation. |
Auth_Flow |
0 |
OAuth2-autentiseringsflödet för drivrutinsanslutningen. Den här egenskapen krävs om AuthMech är 11. Giltiga värden är 0 (token-genomströmning), 1 (M2M-klientautentiseringsuppgifter), 2 (U2M-webbläsarbaserad) och 3 (Azure hanterad identitet). |
Auth_JWT_Alg |
RS256 |
Algoritmen för JWT-autentisering med privat nyckel. De algoritmer som stöds är: RSA: RS256, RS384, RS512, PS256, PS384, PS512 och EC: ES256, ES384, ES512 |
Auth_JWT_Key_File |
null |
Sökvägen till den privata nyckelfilen (PEM-format) för JWT-autentisering. |
Auth_JWT_Key_Passphrase |
null |
Lösenfrasen för dekryptering av en krypterad privat nyckel. |
Auth_KID |
null |
Nyckelidentifieraren (KID) som krävs för JWT-autentisering. Detta är obligatoriskt när du använder JWT med privat nyckel. |
Auth_RefreshToken |
null |
OAuth2-uppdateringstoken som används för att hämta en ny åtkomsttoken. |
Auth_Scope |
all-apis |
Autentiseringsomfånget för OAuth2-flöden. |
Azure_workspace_resource_id |
null |
Din Azure Databricks arbetsytas Azure resurs-ID. Krävs när Auth_Flow är 3 (Azure hanterad identitet). |
AzureTenantId |
null |
Det Azure klientorganisations-ID:t för Azure specifik autentisering. Krävs när du använder ett Azure hanterat huvudnamn för tjänsten med Auth_Flow inställt på 1. |
EnableOIDCDiscovery |
1 |
Om värdet är 1används OpenID Connect-identifierings-URL:en. |
EnableTokenCache |
1 |
Om värdet är inställt på 1aktiverar du cachelagring av OAuth-token för att förbättra prestandan. Ställ in på för att 0 välja bort cachelagring av token för U2M-autentisering (Auth_Flow=2). |
GoogleCredentialsFile |
null |
Sökvägen till JSON-nyckelfilen för Google Service-kontoautentisering. |
GoogleServiceAccount |
null |
Aktiverar autentisering med ett Google-tjänstkonto. |
OAuth2ClientId |
null |
OAuth2-klient-ID för autentisering. Krävs när Auth_Flow är 1 (M2M). Ange detta till tjänstens huvudnamns UUID eller program-ID. För Auth_Flow3 (Azure hanterad identitet) anger du detta till den hanterade identitetens Client-ID (krävs endast för användartilldelade hanterade identiteter). För U2M (Auth_Flow=2) databricks-sql-jdbc används som standard. |
OAuth2ConnAuthAuthorizeEndpoint |
null |
Url:en för auktoriseringsslutpunkten som används i ett OAuth2-flöde. |
OAuth2ConnAuthTokenEndpoint |
null |
URL:en för tokenslutpunkten för OAuth2-flödet. |
OAuth2RedirectUrlPort |
8020 |
OAuth2-omdirigerings-URL-porten för webbläsarbaserade autentiseringsflöden. |
OIDCDiscoveryEndpoint |
null |
OpenID Connect-upptäckts-URL:en för att hämta OIDC-konfigurationen. |
OAuth2Secret |
null |
Tjänstens huvudnamns OAuth-hemlighetsvärde. Krävs när Auth_Flow är 1 (M2M-klientautentiseringsuppgifter). |
TokenCachePassPhrase |
null |
Lösenfrasen som ska användas för OAuth U2M-tokencachekryptering. Krävs när Auth_Flow är 2 (U2M). Detta förhindrar upprepade webbläsarbaserade autentiseringar genom cachelagring av autentiseringsuppgifter. |
UID |
null |
Användarnamnet för autentisering. Krävs när AuthMech är 3 (personlig åtkomsttoken). Ställ in detta på strängen literal token. |
PWD eller password |
null |
Lösenordet för autentisering. Krävs när AuthMech är 3 (personlig åtkomsttoken). Ange detta till värdet för din Azure Databricks personliga åtkomsttoken. |
UseJWTAssertion |
false |
Aktiverar JWT-autentisering med privat nyckel för M2M-användningsfall där klienthemlig autentisering är begränsad. |
Anslutnings- och proxyegenskaper
Följande anslutnings- och proxyegenskaper stöds av Databricks JDBC-drivrutinen. Egenskaperna är skiftlägesokänsliga.
| Fastighet | Standardvärde | Beskrivning |
|---|---|---|
AsyncExecPollInterval |
200 |
Tiden i millisekunder mellan varje kontroll av status för asynkron frågeexekvering. Asynkront refererar till det faktum att RPC-anropet som används för att köra en fråga mot Spark är asynkront. Det betyder inte att JDBC-asynkrona åtgärder stöds. |
CFProxyAuth |
0 |
Om inställningen är inställd på 1använder drivrutinen användaren och lösenordet för proxyautentisering, som representeras av CFProxyUID och CFProxyPwd. |
CFProxyHost |
null |
En sträng som representerar namnet på proxyvärden som ska användas när UseCFProxy också är inställd på 1. |
CFProxyPort |
null |
Ett heltal som representerar antalet proxyportar som ska användas när UseCFProxy är också inställt på 1. |
CFProxyPwd |
null |
En sträng som representerar lösenordet som ska användas för proxyautentisering när CFProxyAuth och UseCFProxy är också inställda på 1. |
CFProxyUID |
null |
En sträng som representerar användarnamnet som ska användas för proxyautentisering när CFProxyAuth och UseCFProxy är också inställda på 1. |
ConnCatalog eller catalog |
SPARK |
Namnet på den standardkatalog som ska användas. |
ConnSchema eller schema |
default |
Namnet på det standardschema som ska användas. Detta kan anges antingen genom att ersätta <schema> i URL:en med namnet på schemat som ska användas eller genom att ange egenskapen ConnSchema till namnet på schemat som ska användas. |
ProxyAuth |
0 |
Om inställningen är inställd på 1använder drivrutinen användaren och lösenordet för proxyautentisering, som representeras av ProxyUID och ProxyPwd. |
ProxyHost |
null |
En sträng som representerar namnet på proxyvärden som ska användas när UseProxy också är inställd på 1. |
ProxyPort |
null |
Ett heltal som representerar antalet proxyportar som ska användas när UseProxy är också inställt på 1. |
ProxyIgnoreList |
"" (tom sträng) |
En kommaavgränsad lista över värdar eller domäner som kringgår proxyn när UseProxy den är inställd på 1. Till exempel: localhost,127.0.0.1. |
ProxyPwd |
null |
En sträng som representerar lösenordet som ska användas för proxyautentisering när ProxyAuth och UseProxy är också inställda på 1. |
ProxyUID |
null |
En sträng som representerar användarnamnet som ska användas för proxyautentisering när ProxyAuth och UseProxy är också inställda på 1. |
UseCFProxy |
0 |
Om inställningen är inställd på 1använder drivrutinen proxyinställningarna för molnhämtning om de tillhandahålls, annars använder du den vanliga proxyn. |
UseProxy |
0 |
Om inställningen är inställd på 1använder drivrutinen de angivna proxyinställningarna (till exempel: ProxyAuth, ProxyHost, ProxyPort, ProxyPwdoch ProxyUID). |
UseSystemProxy |
0 |
Om inställningen är inställd på 1använder drivrutinen de proxyinställningar som har angetts på systemnivå. Om ytterligare proxyegenskaper anges i anslutnings-URL:en åsidosätter dessa ytterligare proxyegenskaper de som har angetts på systemnivå. |
Konfigurationsegenskaper för SSL-förtroendearkiv
Följande konfigurationsegenskaper för SSL-förtroendearkiv stöds av Databricks JDBC-drivrutinen. Egenskaperna är skiftlägesokänsliga.
| Fastighet | Standardvärde | Beskrivning |
|---|---|---|
AcceptUndeterminedRevocation |
0 |
Om värdet är inställt på 1godkänner du certifikat med obestämd återkallningsstatus när kontrollen av återkallade certifikat är aktiverad. |
AllowSelfSignedCerts |
0 |
Om inställningen är inställd 1på tillåter drivrutinen anslutningar till servrar med självsignerade SSL-certifikat. |
CheckCertRevocation |
1 |
Om drivrutinen kontrollerar SSL-certifikatåterkallningen. Ange till för att 0 acceptera återkallade certifikat. |
SSL |
1 |
Om anslutningen kommunicerar med Spark-servern via en SSL-ansluten socket. |
SSLKeyStore |
null |
Sökvägen till SSL-nyckellagringsfilen för klientcertifikatautentisering. Som standard utförs TLS-autentisering endast för servrar så att ett klientcertifikat inte krävs. |
SSLKeyStorePwd |
null |
Lösenordet för SSL-nyckellagringsfilen. |
SSLKeyStoreType |
JKS |
Typ av SSL-nyckelarkiv. Giltiga värden är JKS, PKCS12, JCEKSoch DKSPKCS11. |
SSLTrustStore |
null |
Sökvägen till förtroendelagringsfilen för SSL-certifikatverifiering. |
SSLTrustStorePassword |
null |
Lösenordet för förtroendelagringsfilen om det är lösenordsskyddat. |
SSLTrustStoreType |
JKS |
Typen av förtroendearkiv, till exempel JKS eller PKCS12. Om den inte anges är drivrutinen standard för JKS-förtroendearkivet. Giltiga typer är JKS, PKCS12och BCFKS. |
UseSystemTrustStore |
0 |
Om det är inställt på 1, använder drivrutinen systemets standardförtroendearkiv för SSL-certifikatverifiering. |
Betrodda butikstyper
JDBC-drivrutinen stöder följande SSL-lägen och förtroendelagringstyper.
Självsignerat certifikatläge
Om du vill använda självsignerat certifikatläge anger du anslutningsegenskapen AllowSelfSignedCerts=1. I det här läget används en socketfabrik som accepterar alla certifikat utan verifiering.
Anpassat förtroendearkiv
Om du vill använda ett anpassat förtroendearkiv anger du en anpassad förtroendelagringsfil i anslutningsegenskapen SSLTrustStore . Det här certifikatlagret läses in direkt från den angivna sökvägen och använder certifikaten för SSL-verifiering. Det kan vara i JKS, PKCS12 eller andra format som stöds.
Du måste ange följande ytterligare anslutningsegenskaper:
-
SSLTrustStore: Sökväg till förtroendelagringsfilen -
SSLTrustStorePassword: Lösenord för certifikatarkivet (om det behövs) -
SSLTrustStoreType: Typ av certifikatarkiv (valfritt, standardvärdet är JKS om inget anges)
Java systemegenskapsförtroendearkiv
För att använda systemegenskapens certifikatslager, ange UseSystemTrustStore=1 och se till att du inte anger ett anpassat certifikatslager. Ange i stället ett förtroendearkiv med hjälp av Java-systemegenskapen javax.net.ssl.trustStore. Den här egenskapen anges på JVM-nivå med hjälp av -D flaggan, till exempel:
java -Djavax.net.ssl.trustStore=/path/to/truststore.jks -Djavax.net.ssl.trustStorePassword=changeit ...
JDBC-drivrutinen söker först efter Java-systemegenskapen javax.net.ssl.trustStore. Om den har angetts använder den den här förtroendelagringsfilen i stället för JDK:ets standard. Om ingen systemegenskap har angetts används JDK:s standardförtroendearkiv (cacerts), som är placerad på $JAVA_HOME/lib/security/cacerts eller liknande sökväg.
JDK:s standardförtroendearkiv (cacerts)
JDK levereras med ett inbyggt förtroendearkiv som kallas cacerts som innehåller certifikat från välkända certifikatutfärdare, vilket möjliggör verifiering av certifikat som utfärdats av dessa certifikatutfärdare. Det här certifikatsförrådet finns vanligtvis på $JAVA_HOME/lib/security/cacerts med standardlösenordet "changeit" eller "changeme".
Om du vill använda JDK-standardlagringsplatsen för förtroende anger du UseSystemTrustStore=1 och kontrollerar att du inte anger ett anpassat förtroendearkiv eller ett Java systemegenskapsförtroendearkiv. Om ett förtroendearkiv också anges med hjälp av Java-systemegenskapen javax.net.ssl.trustStore ignoreras det, vilket säkerställer att drivrutinen endast använder certifikat från JDK-standardförtroendearkivet.
Prioritetsordning för betrodd lagring
Drivrutinen använder följande prioriteringsordning för att avgöra vilket förtroendelager som ska användas:
- Det anpassade förtroendearkivet som anges i anslutningsegenskapen
SSLTrustStore - Förtroendearkivet som anges i Java-systemegenskapen
javax.net.ssl.trustStore(närUseSystemTrustStore=1) - JDK:s standard-lager för certifikatslagring (cacerts)
Säkerhetsrekommendationer
För att hålla anslutningen säker rekommenderar Databricks följande:
För produktionsmiljöer:
- Använd inte självsignerat certifikatläge (
AllowSelfSignedCerts=1). - Använd officiella CA-signerade certifikat.
- Använd
UseSystemTrustStore=1om du inte behöver ett anpassat förtroendearkiv.
- Använd inte självsignerat certifikatläge (
För anpassade förtroendelager:
- Använd när du ansluter till servrar med certifikat som inte finns i standardarkivet för förtroende.
- Kontrollera att certifikatarkivet innehåller hela certifikatkedjan.
- Skydda betrodda lagringsfiler med lämpliga behörigheter.
Egenskaper för återförsök av strategi
Följande egenskaper för återförsöksstrategi stöds av Databricks JDBC-drivrutinen (OSS). Egenskaperna är skiftlägesokänsliga.
| Fastighet | Standardvärde | Beskrivning |
|---|---|---|
RateLimitRetry |
1 |
Om det är inställt på 1, möjliggörs återförsök vid fel vid hastighetsbegränsning. |
RateLimitRetryTimeout |
120 |
Tidsgräns för omprövning av hastighetsbegränsning i sekunder. |
TemporarilyUnavailableRetry |
1 |
Om värdet är 1inställt på aktiverar du återförsök vid tillfälligt otillgängliga fel. |
TemporarilyUnavailableRetryTimeout |
900 |
Tidsgränsen för återförsök för tillfälligt otillgängliga fel, i sekunder. |
VolumeOperationRetryableHttpCode |
408,429,500,502,503,504 |
Kommaavgränsad lista över återförsöksbara HTTP-koder för volyminmatning i Unity Catalog. |
VolumeOperationRetryTimeout |
15 |
Tidsgränsen för återförsök för Unity Catalog-volyminmatning av HTTP-begäranden, i minuter. |
Egenskaper för prestanda- och anslutningshantering
Följande egenskaper för prestanda- och anslutningshantering stöds av Databricks JDBC Driver (OSS). Egenskaperna är skiftlägesokänsliga.
| Fastighet | Standardvärde | Beskrivning |
|---|---|---|
CloudFetchThreadPoolSize |
16 |
Trådpoolens storlek för molnhämtningsoperationer. |
DefaultStringColumnLength |
255 |
Det maximala antalet tecken som kan ingå i STRING-kolumner för metadatarapportering. |
HttpConnectionPoolSize |
100 |
Den maximala STORLEKEN på HTTP-anslutningspoolen. |
IdleHttpConnectionExpiry |
60 |
Den inaktiva HTTP-anslutningens förfallotid i sekunder. |
RowsFetchedPerBlock |
2000000 |
Det maximala antalet rader som en fråga returnerar åt gången. Detta gäller endast för infogade resultat. |
SocketTimeout |
900 |
Socket-timeout för nätverksoperationer anges i sekunder. |
SQL-konfigurationsegenskaper
Följande SQL-konfigurationsegenskaper stöds av Databricks JDBC-drivrutinen. Dessa beskrivs också i Konfigurationsparametrar. Egenskaperna är skiftlägesokänsliga.
| Fastighet | Standardvärde | Beskrivning |
|---|---|---|
ansi_mode |
TRUE |
Om du vill aktivera strikt ANSI SQL-beteende för vissa funktioner och regler för gjutning. |
enable_photon |
TRUE |
Om du vill aktivera den fotovektoriserade frågemotorn. |
legacy_time_parser_policy |
EXCEPTION |
De metoder som används för att parsa och formatera datum och tidsstämplar. Giltiga värden är EXCEPTION, LEGACYoch CORRECTED. |
max_file_partition_bytes |
128m |
Det maximala antalet byte som ska packas i en enda partition när du läser från filbaserade källor. Inställningen kan vara ett positivt heltal och eventuellt inkludera ett mått som b (byte), k eller kb (1 024 byte). |
query_tags |
"" (tom sträng) |
En kommaavgränsad lista över nyckelvärdestaggar som ska bifogas till SQL-frågor för spårning och analys i system.query.history. |
read_only_external_metastore |
false |
Styr om ett externt metaarkiv behandlas som skrivskyddat. |
statement_timeout |
172800 |
Anger tidsgränsen för SQL-instruktionen mellan 0 och 172800 sekunder. |
timezone |
UTC |
Ange den lokala tidszonen. Region-ID:n i formuläret area/city, till exempel Amerika/Los_Angeles eller zonförskjutningar i formatet (+|-)HH, (+|-)HH:mm eller (+|-)HH:mm:ss, t.ex. -08, +01:00 eller -13:33:33. Dessutom stöds UTC som ett alias för +00:00 |
use_cached_result |
true |
Om Databricks SQL cachelagrar och återanvänder resultat när det är möjligt. |
loggningsegenskaper
Följande loggningsegenskaper stöds av Databricks JDBC-drivrutinen. Egenskaperna är skiftlägesokänsliga.
| Fastighet | Standardvärde | Beskrivning |
|---|---|---|
LogFileCount |
10 |
Maximalt antal tillåtna loggfiler |
LogFileSize |
10 |
Den maximala tillåtna loggfilsstorleken som anges i MB |
LogLevel |
OFF |
Loggningsnivån, som är värdet 0 till 6:
Använd den här egenskapen för att aktivera eller inaktivera loggning i anslutningsappen och för att ange hur mycket information som ingår i loggfilerna. |
LogPath |
För att fastställa standardsökvägen för loggar använder drivrutinen värdet som angetts för dessa systemegenskaper i den här prioritetsordningen:
|
Den fullständiga sökvägen till mappen där anslutningsappen sparar loggfiler när loggning är aktiverad, som en sträng. För att säkerställa att anslutnings-URL:en är kompatibel med alla JDBC-program kan du undvika omvänt snedstreck (\) i filsökvägen genom att skriva ett annat omvänt snedstreck.Om värdet LogPath är ogiltigt skickar kontakten den loggade informationen till standardutdataströmmen (System.out). |
Aktivera och konfigurera loggning
JDBC-drivrutinen stöder Simple Logging Facade for Java (SLF4J) och java.util.logging (JUL) frameworks. Drivrutinen använder JUL-loggningsramverket som standard.
Så här aktiverar och konfigurerar du loggning för JDBC-drivrutinen:
Aktivera det loggningsramverk som du vill använda:
- För SLF4J-loggning anger du systemegenskapen
-Dcom.databricks.jdbc.loggerImpl=SLF4JLOGGERoch tillhandahåller SLF4J-bindningsimplementeringen (kompatibel med SLF4J version 2.0.13 och senare) och motsvarande konfigurationsfil i klassökvägen. - För JUL-loggning anger du systemegenskapen
-Dcom.databricks.jdbc.loggerImpl=JDKLOGGER. Det här är standardinställningen.
- För SLF4J-loggning anger du systemegenskapen
Ange egenskapen
LogLevelpå reťazec pripojenia till önskad informationsnivå som ska ingå i loggfilerna.Ange egenskapen
LogPathpå reťazec pripojenia till den fullständiga sökvägen till mappen där du vill spara loggfiler.Följande anslutnings-URL aktiverar till exempel loggningsnivå 6 och sparar loggfilerna i mappen C:temp:
jdbc: databricks://localhost:11000;LogLevel=6;LogPath=C:\\tempStarta om JDBC-programmet och återanslut till servern för att tillämpa inställningarna.
Andra funktionsegenskaper
Följande egenskaper aktiverar funktioner i Databricks JDBC-drivrutinen. Egenskaperna är skiftlägesokänsliga.
| Fastighet | Standardvärde | Beskrivning |
|---|---|---|
EnableArrow |
1 |
Aktiverar Apache Arrow-serialisering för resultatuppsättningsöverföringar. Cloud Fetch förlitar sig på Arrow, så om du inaktiverar Pil inaktiveras även Cloud Fetch. Ställ in 0 för att inaktivera.Version 3.3.1 och senare stöder Arrow med JDK 16 och senare. Version 3.2.1 och senare med JDK 16 och senare kan generera körningsfel. Du kan kringgå detta genom att starta om programmet eller drivrutinen med JVM-alternativet --add-opens=java.base/java.nio=org.apache.arrow.memory.core,ALL-UNNAMED. Arrow och Cloud Fetch stöds inte på IBM AIX. |
EnableComplexDatatypeSupport |
0 |
Om värdet är inställt på 1 aktiveras stöd för komplexa datatyper (ARRAYs, STRUCTs, MAPs) som interna Java objekt i stället för strängar. |
EnableDirectResults |
1 |
Om värdet är 1inställt på aktiverar du direkta resultat för bättre frågeprestanda. |
EnableGeoSpatialSupport |
0 |
Om värdet är inställt på 1, möjliggör det stöd för geospatiala datatyper (GEOMETRI och GEOGRAFI) som strukturerade Java objekt. Kräver EnableComplexDatatypeSupport=1 och EnableArrow=1 (pilen är aktiverad som standard). När det är inaktiverat returneras geospatiala kolumner som STRING i EWKT-format. Se ST geospatiala funktioner. |
EnableSqlScripting |
1 eller true |
Aktiverar STÖD för SQL-skript för sammansatta instruktionsblock (BEGIN... END) och lagrade proceduranrop. Tillgänglig i drivrutinsversion 1.0.10 och senare med Databricks Runtime 16.3 och senare. Lagrade procedurer kräver Databricks Runtime 17.0 och senare och drivrutinsversion 3.0.1 och senare. Använd Statement eller PreparedStatement för att anropa procedurer.
CallableStatement stöds inte. Syntax och exempel finns i SQL-skript. |
EnableMetricViewMetadata |
0 |
Om värdet är 1inställt på aktiverar du förbättrade metadataåtgärder för måttvyer. Se Arbeta med metadata för måttvy med Databricks JDBC-drivrutinen. |
EnableTelemetry |
0 |
Om värdet 1är aktiverat aktiveras telemetri. Se Telemetri. |
EnableVolumeOperations |
1eller true |
Klientinformationsegenskapen för att möjliggöra volymåtgärder i en ström. Se Hantera filer i volymer med Databricks JDBC-drivrutinen. Som standardvärde aktiverar egenskapen REMOVE även åtgärden på en volym. Viktig: Du måste ange detta som en klientinformationsegenskap. Om du bara anger informationen i anslutnings-URL:en aktiveras inte volymåtgärder för en ström. |
MaxBatchSize |
500 |
Den maximala batchstorleken för batchåtgärder och databearbetning. |
QueryResultCompressionType |
1 | Giltiga värden är 0 (för ingen komprimering) och 1 (för LZ4-komprimering). Drivrutinen ställer automatiskt in till 0 (ingen komprimering) för inbäddade resultat, oavsett konfigurationen. |
UserAgentEntry |
browser |
Posten User-Agent som ska inkluderas i HTTP-begäran. Det här värdet är i följande format: [ProductName]/[ProductVersion] [Comment] |
UseThriftClient |
1 |
Om JDBC-drivrutinen ska använda Thrift-klientens API:er eller API:er för instruktionsexekvering. |
VolumeOperationAllowedLocalPaths |
`` | Kommaavgränsad lista över tillåtna lokala sökvägar för nedladdning och uppladdning av Volyminmatningsfiler för Unity Catalog. Sökvägarna innefattar även underkataloger. När det inte anges återgår detta till värdet StagingAllowedLocalPaths, och sedan till en tom sträng som inte anger några begränsningar. Se Hantera filer med hjälp av volymer.Viktig: Om installationen finns i en miljö med flera klientorganisationer (till exempel BI-verktyg eller utvecklartjänster) och användarna styr den fullständiga JDBC-URL:en, bör tjänsten ange den här egenskapen till en sandbox-plats eller en obefintlig sökväg. Detta hindrar användare från att skriva arbitraty-filer och störa tjänstens interna distribution. |
Telemetrisamling
Med telemetri kan Databricks effektivisera felsökningen och tillhandahålla felsökning i tid genom att samla in:
- Information om klientmiljön (drivrutinsversion, körning, OS-information)
- JDBC-anslutningskonfigurationer (exkluderar pii-data)
- Mått för åtgärdssvarstid
- Körningsresultatformat (inline JSON, Arrow, osv.)
- Åtgärdstyper (körningsfråga, metadatafråga, volymåtgärder)
- Felklassificeringsdata för fel
- Antal återförsök
Anmärkning
Databricks upprätthåller strikta sekretessstandarder som säkerställer att ingen samling frågeinnehåll, resultat eller personligt identifierbar information (PII) inte samlas in.