Kommentar
Åtkomst till den här sidan kräver auktorisering. Du kan prova att logga in eller ändra kataloger.
Åtkomst till den här sidan kräver auktorisering. Du kan prova att ändra kataloger.
Följande versionsinformation ger information om Databricks Runtime 18.2 (Beta).
Den här versionen innehåller alla funktioner, förbättringar och felkorrigeringar från alla tidigare Databricks Runtime-versioner. Databricks släppte den här versionen i april 2026.
Viktigt!
Databricks Runtime 18.2 är i Beta. Innehållet i de miljöer som stöds kan ändras under betaversionen. Ändringar kan inkludera listan över paket eller versioner av installerade paket.
Förändringar i beteende
- XPath hämtar inte längre externa DTD:er
- NULL-struktursbevarande i INSERT, MERGE och strömmande skrivprocesser med schemautveckling
- NullType-stöd (VOID) i Delta-tabeller
- SHOW CREATE TABLE stöder metrisk vyer
- JOIN
- NATURAL JOIN respekterar skiftlägesoberoende kolumnmatchning
- Verifiering av SQL UDF-beroende i Unity Catalog
- Optimerade skrivningar för partitionerade Unity Catalog-tabeller som skapats med CRTAS
- De AWS SDK v1-beroenden är skuggade
- Korrigera felaktig EPSG-myndighet för ESRI-definierad SRID 102100
XPath hämtar inte längre externa DTD:er
När du utvärderar XPath via XML läser Azure Databricks inte längre in externa DTD:er (Document Type Definitions) som deklarerats i dokumentet. Tidigare kunde XPath misslyckas när XML innehåller en extern DTD-referens som pekade på en felaktigt formaterad URL eller en oåtkomlig slutpunkt. Eftersom DTD-validering är separat från XPath-utvärdering returnerar frågor som redan har lyckats samma resultat som tidigare. Frågor som tidigare bara misslyckades under extern DTD-hämtning kan nu lyckas.
NULL-strukturbevarande i INSERT, MERGE och strömning av skrivningar med utvecklande schema
För INSERT, MERGEoch strömmande skrivningar som använder schemautveckling lagras nu en NULL-struct i källan som NULL i målet. Det värdet materialiserades tidigare felaktigt som en strukt som inte är null, med varje fält inställt på NULL, medan samma åtgärder utan schemaevolution bevarade NULL-strukturer korrekt. Om koden förlitade sig på att ta emot en icke-null-struct vars fält alla var NULL uppdaterar du koden så att den hanterar en NULL-struct i stället.
NullType-stöd (VOID) i Delta-tabeller
Delta Lake-tabeller stöder VOID nu kolumner.
VOID Tidigare hoppades kolumnerna tyst över av sökvägsbaserade DataFrame-läsningar (till exempel spark.read.format("delta").load(path)) och frågor om tidsresor. Dessa frågor innehåller nu VOID-kolumner i utdata. Skrivningar påverkas inte. Se VOID typ för begränsningar för var VOID kolumner kan visas i schemat.
Granska alla frågor som läser från Delta Lake-tabeller med VOID kolumner för att säkerställa att de hanterar de ytterligare kolumnerna korrekt. Till exempel returnerar en fråga som tidigare returnerade två kolumner nu tre:
CREATE TABLE my_table(id INT, v VOID, name STRING) USING DELTA;
-- Before DBR 18.2: returns (id, name)
-- After DBR 18.2: returns (id, v, name)
SELECT * FROM my_table VERSION AS OF 0;
Frågor som är beroende av kolumnantal eller position, till exempel INSERT INTO ... SELECT *, kan börja misslyckas efter uppgraderingen.
I synnerhet kan vissa INSERT frågor med schemautveckling aktiverad tyst flytta data till fel kolumner. Den ytterligare VOID kolumnen i utdata flyttar positionerna för efterföljande kolumner, vilket kan leda till att data skrivs till felaktiga kolumner i måltabellen. Som exempel:
-- Source table has a VOID column between two INT columns
CREATE TABLE source(a INT, b VOID, c INT) USING DELTA;
-- Target table has two INT columns
CREATE TABLE target(x INT, y INT) USING DELTA;
-- Before DBR 18.2: SELECT * FROM source returns (a, c), inserting a->x and c->y
-- After DBR 18.2: SELECT * FROM source returns (a, b, c), inserting a->x, b->y,
-- and c is added as a new column via schema evolution
INSERT INTO target WITH SCHEMA EVOLUTION
SELECT * FROM source VERSION AS OF 0;
SHOW CREATE TABLE stöder måttvyer
SHOW CREATE TABLE stöder nu metriska vyer. Tidigare uppstod ett fel när det här kommandot kördes i en måttvy. Utdata för metrikvyer innehåller det helt kvalificerade tredelade namnet inklusive katalogen (till exempel CREATE VIEW catalog.db.my_metric_view ...), vilket underlättar återskapandet av metrikvyn på rätt plats.
Korrigering för VÄNSTER YTTRE JOIN LATERAL som utesluter rader
En bugg som felaktigt har släppt rader från LEFT OUTER JOIN LATERAL frågor har nu åtgärdats. Frågor som använder den här konstruktionen returnerar nu rätt resultat. Om du tillfälligt vill återgå till det tidigare beteendet anger du spark.databricks.sql.optimizer.lateralJoinPreserveOuterSemantic till true.
NATURAL JOIN respekterar skiftlägesoberoende matchning av kolumner
NATURAL JOIN använder nu korrekt skiftlägesokänslig kolumnmatchning när spark.sql.caseSensitive är inställt på false (standardvärdet). Tidigare använde NATURAL JOIN en skiftlägeskänslig jämförelse för att identifiera vanliga kolumner, vilket ledde till att kolumner som endast skilde sig åt i skiftläge (till exempel ID jämfört med id) inte kunde identifieras som matchande. Detta orsakade NATURAL JOIN att generera korskopplingsresultat utan att märkas. Den här korrigeringen justerar NATURAL JOIN beteendet med USING kopplingar, som redan har hanterat skiftlägeskänslighet korrekt. Frågor som påverkas av den här buggen returnerar nu korrekta resultat med korrekt kopplade kolumner.
Verifiering av SQL UDF-beroende i Unity Catalog
Unity Catalog tillämpar nu beroendeverifiering för SQL-användardefinierade funktioner (UDF:er) för att förhindra förbikoppling av åtkomstkontroll. Tidigare kunde SQL-funktioner som skapats via REST-API:et referera till beroenden som användaren inte hade åtkomst till. SQL-UDF:er med ogiltiga beroendekonfigurationer blockeras nu från körning.
Optimerade skrivningar för partitionerade Unity Catalog-tabeller som skapats med CRTAS
Optimerade skrivningar tillämpas nu korrekt på partitionerade Unity Catalog-tabeller som skapats med CREATE OR REPLACE TABLE ... AS SELECT (CRTAS). Tidigare tillämpade CRTAS på nya partitionerade Unity Catalog-tabeller inte optimerade skrivningar, vilket resulterade i ett högre antal små filer per partition. Den här korrigeringen kan öka skrivfördröjningen. Om du vill återgå till det tidigare beteendet anger du spark.databricks.delta.optimizeWrite.UCTableCRTAS.enabled till false.
AWS SDK v1-beroenden är avskilda
AWS SDK v1-beroenden som paketeras med Databricks Runtime är nu skuggade och inte längre direkt tillgängliga på klassökvägen. Om koden är beroende av AWS SDK v1-bibliotek som tidigare tillhandahölls av Databricks Runtime lägger du till dem som explicita beroenden i projektet. Den här ändringen förbereder migreringen till AWS SDK v2 efter att AWS-stödet för SDK v1 har upphört.
Åtgärda felaktig EPSG-myndighet för SRID definierat av ESRI 102100
Crs-mappningen (Coordinate Reference System) för SRID 102100 använder ESRI:102100 nu korrekt i stället för den felaktiga EPSG:102100. Den här korrigeringen säkerställer att geospatial data lagras med rätt myndighet för bättre interoperabilitet med andra system.
Nya funktioner och förbättringar
- SKAPA ELLER ERSÄTT-stöd för temporära tabeller
-
agg()alias förmeasure()funktion - Snowflake JDBC-drivrutinsuppgradering
-
pyspark.pipelines.testingnamnområdesalias - Förbättrad prestanda för Auto Loader-listning
- Deltatabellhistorik innehåller skrivalternativflaggor
SKAPA ELLER ERSÄTT-stöd för temporära tabeller
CREATE OR REPLACE TEMP TABLE syntax stöds nu, så att du kan skapa eller ersätta temporära tabeller i en enda instruktion. Detta eliminerar behovet av att uttryckligen släppa och återskapa temporära tabeller.
agg() alias för measure() funktion
agg() är nu tillgängligt som ett alias för measure() funktionen. Den här ändringen är helt bakåtkompatibel. Befintliga frågor som använder measure() fortsätter att fungera utan ändringar och agg() ger identiska resultat när de används med samma argument.
Snowflake JDBC-drivrutinsuppgradering
Snowflake JDBC-drivrutinen uppgraderas från 3.22.0 till 3.28.0.
pyspark.pipelines.testing namnområdesalias
pyspark.pipelines.testing är nu tillgängligt som ett bekvämlighetsalias för dlt.testing API:er. Importera pipelinetestningsverktyg för Lakeflow Spark Deklarativa pipelines via något av namnrymderna.
Förbättrad prestanda för Auto Loader-funktionalitet
Automatisk inläsning använder nu en effektivare listningsmetod som förbättrar listhastigheten för molnlagringskällor. Om dina kontinuerliga strömmar förlitar sig på hur lång tid det tar att identifiera data via listan och inte anger explicita ProcessingTime utlösare, kan den här förbättringen leda till ökade api-kostnader för molnlistning. Ange explicita ProcessingTime utlösare för att styra hur ofta liståtgärder körs.
Deltatabellhistorik innehåller skrivalternativflaggor
Deltatabellhistorik (DESCRIBE HISTORY) innehåller nu skrivalternativflaggor i operationParameters kolumnen för WRITE och REPLACE TABLE åtgärder. När följande alternativ uttryckligen är aktiverade visas de som booleska flaggor i historiken (ingår endast när true):
För WRITE och REPLACE TABLE åtgärder:
-
isDynamicPartitionOverwrite: presentera när läget för dynamisk partitionsöverskrivning användes -
canOverwriteSchema: presentera när schemaöverskrivning (overwriteSchema) aktiverades -
canMergeSchema: presentera när schemasammanslagning (mergeSchema) aktiverades
För REPLACE TABLE åtgärder:
-
predicate: närvarande närreplaceWhereanvändes -
isV1WriterSaveAsTableOverwrite: förekommer när ersättningen har utlösts av en.saveAsTable-överskrivning
Biblioteksuppgraderingar
Uppgraderade Python bibliotek:
Inga bibliotek har uppgraderats i den här versionen.
Uppgraderade R-bibliotek:
Inga bibliotek har uppgraderats i den här versionen.
Uppgraderade Java bibliotek:
- io.delta.delta-sharing-client_2.13 från 1.3.9 till 1.3.10
Apache Spark
Databricks Runtime 18.2 innehåller Apache Spark 4.1.0. Den här versionen innehåller alla Spark-korrigeringar och förbättringar som ingår i Databricks Runtime 18.1, samt följande ytterligare felkorrigeringar och förbättringar som gjorts i Spark:
- SPARK-56219 Återställ "[SC-225028][PS] Justera groupby idxmax och idxmin beteende med skipna=False till att stämma överens med Pandas 2/3"
-
SPARK-56204 Ta
Aliasbort omslutningar från inbäddade uttryck för tabellrader i parsern - SPARK-56186 Dra tillbaka pypy
- SPARK-56202 Refaktorisering av anslutningstester för direktuppspelning: delad bas-/svithierarki och förenkla lägesutskick
- SPARK-56221 Funktionsparitet mellan spark.catalog.* och DDL-kommandon
-
SPARK-56301 Åtgärda stavfel i
error-conditions.json - SPARK-55729 Stöd för tillståndsdatakällans läsare för nytt tillståndsformat v4 vid stream-stream-anslutning
- SPARK-56256 Lägga till emptyDataFrame API i SparkSession
- SPARK-56205 Verifiera kontrollpunkt-ID för grundtillståndslager innan genomförande av mikrobatch
- SPARK-55827 Åtgärda typtips för datakällsarbetare
- SPARK-55579 Byt namn på PySpark-felklasser till eval-type-agnostic
- SPARK-56247 Åtgärda återställningsbeteendet och ange tips om inheritable_thread_target
- SPARK-56244 Förfina benchmark-klasslayouten i bench_eval_type.py
- SPARK-56262 Ta bort den onödiga inaktiveringen av mypy-kontrollen för typer
- SPARK-55969 regr_r2 ska behandla första param som beroende variabel
- SPARK-56179 Konsolidera felklasser för typmatchningsfel – del 3
- SPARK-55630 Hoppa över uppdatering av matchad flagga för icke-yttre sida i stream-stream join v4
- SPARK-56217 Åtgärda bucketBy-undantag i anslutning
- SPARK-56225 Förbättra felmeddelandet Visa MED SCHEMA EVOLUTION
- SPARK-55865 Byt namn på _LEGACY_ERROR_TEMP_1266 till CANNOT_TRUNCATE_EXTERNAL_TABLE
- SPARK-55861 Byt namn på _LEGACY_ERROR_TEMP_2045 till UNSUPPORTED_TABLE_CHANGE
- SPARK-56166 Använd ArrowBatchTransformer.enforce_schema för att ersätta kolumnvis typ av tvångslogik
- SPARK-56245 Åtgärda DataFrame.eval-tilldelning på plats på Pandas 3
- SPARK-56062 Isolera memory_profiler för att förbättra importtiden
- SPARK-55964-systemkatalogen vinner över användarkatalogen för BUILTIN- och SESSION-scheman.
-
SPARK-56226 Fånga analysfel innan
InternalFrame.__init__i.loc - SPARK-55723 Generalisera enforce_schema fel till PySparkTypeError
- SPARK-54878 Lägg till alternativet sortKeys i funktionen to_json
- SPARK-56219 Justera groupby idxmax och idxmin skipna=Falskt beteende med Pandas 2/3
- SPARK-44065 Optimera BroadcastHashJoin-skevhet i OptimizeSkewedJoin
- SPARK-56179 Återställ "[SC-225014][PYTHON] Konsolidera felklasser för typmatchningsfel – del 3"
- SPARK-53399 Slå samman Python UDF:er
- SPARK-56224 Anteckningar av polsk typ för accumulators.py
- SPARK-55448 Åtgärda förlust av frågehändelser när sessionen stängs under utförandet av frågan
- SPARK-55862 Byt namn på _LEGACY_ERROR_TEMP_2027 till UNEXPECTED_OPERATOR_IN_CORRELATED_SUBQUERY
- SPARK-56201 Kör SPARK-49829-tester med VCF-kopplingar nu när StateDataSource stöder det
- SPARK-56179 Konsolidera felklasser för typmatchningsfel – del 3
-
SPARK-56184 Ersätt
assertmed rättSparkRuntimeExceptioni partitionskolumnparsning - SPARK-56206 Åtgärda skiftlägesokänslig identifiering av CTE-namn
- SPARK-55866 Byt namn på _LEGACY_ERROR_TEMP_2145 till OPTION_VALUE_EXCEEDS_ONE_CHARACTER
- SPARK-56067 Fördröjd import av psutil för att förbättra importhastigheten
- SPARK-56066 Lazy import numpy för att förbättra importhastigheten
- SPARK-55719 Ta bort utfasningsvarning för spark.sql.hive.convertCTAS
- SPARK-56179 Konsolidera felklasser för typmatchningsfel – del 2
- SPARK-55510 Uppdatera structured-streaming-state-data-source.md dokument för att återspegla deleteRange
- SPARK-56050 Lös ivrigt IDENTIFIER() med strängliteraler vid parsningstid
- SPARK-56151 Förbättra CreateVariable-visningssträngen
- SPARK-55751 Lägga till mått i tillståndslagerinläsningar från DFS
- SPARK-56188 Justera Series.map({}) med pandas 3 tomt dikteringsbeteende
- SPARK-55964 Återställ "[SC-223957] systemkatalog vinner över användarkatalogen för BUILTIN- och SESSION-scheman."
- SPARK-55577 Omstrukturera SQL_SCALAR_ARROW_ITER_UDF omslutnings-, mappnings- och serialiserarlogik
- SPARK-55596 DSV2 Förbättrad partitionsstatistikfiltrering
- SPARK-56179 Återställ "[SC-224777][PYTHON] Konsolidera felklasser för typmatchningsfel – del 2"
- SPARK-55964-systemkatalogen vinner över användarkatalogen för BUILTIN- och SESSION-scheman.
- SPARK-56050 Återställ "[SC-224153][SQL] Lös ivrigt IDENTIFIER() med strängliteraler vid parsningstid"
- SPARK-56179 Konsolidera felklasser för typmatchningsfel – del 2
-
SPARK-56102
UnionEstimationkodrensning - SPARK-51712 Svälja icke-dödliga throwables när du löser tabeller/vyer i spark.catalog.listTables()
- SPARK-55881 Lägg till queryId, errorMessage och rootExecutionId i SQL-körnings-REST API
- SPARK-56050 Lös ivrigt IDENTIFIER() med strängliteraler vid parsningstid
- SPARK-55628 Integrera stream-kopplingstillståndsformat V4
- SPARK-56187 Åtgärda sorteringsordning med null-värden för Series.argsort för pandas 3
- SPARK-56167 Justera astype så att det överensstämmer med standardsträngsbeteendet i pandas 3
- SPARK-56018 Använd ruff som formaterare
- SPARK-56042 Åtgärda mått för byte av extern/intern kolfamilj i RocksDBStateStoreProvider
- SPARK-56179 Konsolidera felklasser för typmatchningsfel – del 1
- SPARK-56089 Justera asinh/acosh med fdlibm-algoritmen för kompatibilitet mellan motorer
- SPARK-55453 Åtgärda like-mönstermatchning för ytterligare Unicode-tecken
- SPARK-52785 Förenkla super()-syntax i PySpark
-
SPARK-56169 Korrigering
ClassCastExceptionvid felrapportering närGetStructFieldunderordnad typ ändras av plantransformeringen - SPARK-55557 Hyperboliska funktioner bör inte flöda över med stora indata
- SPARK-47997 Lägg till parametern errors i DataFrame.drop och Series.drop
- SPARK-55008 Visa fråge-ID i SparkUI
- SPARK-54660 Lägga till RTM-utlösare i Python
-
SPARK-56047
distinctCountSprida genom Unionen i CBO-statistikuppskattning - SPARK-56111 Lägg till SparkContext.isDriver() och använd det i kodbasen
- SPARK-55999 Aktivera forceSnapshotUploadOnLag som standard
- SPARK-55610 Lägg till getExecutorInfos i StatusTracker i Python
- SPARK-55728 Introducera konfiguration för filkontrollsummans trådpoolsstorlek och stöd för att inaktivera trådpoolen
- SPARK-55686 SizeEstimator tar hand om kompakta objektrubriker
- SPARK-56044 HistoryServerDiskManager tar inte bort App Store vid lansering när appen inte är i aktiv karta
- SPARK-55809 HeapHistogram använder DiagnosticCommandMBean i stället för jmap-underprocess
- SPARK-56122 Använd numerisk dtype-kontroll anpassad till pandas i Series.cov
- SPARK-56113 Förbättra pandas 3-strängåterställning i Pandas-on-Spark
- SPARK-56118 Matcha Pandas 3.0 bool-hantering i GroupBy.quantile
- SPARK-53823 Implementera listan över tillåtna för realtidsläge
- SPARK-55977 Åtgärda isin() för att använda strikt typmatchning som Pandas
- SPARK-54027 Stöd för Kafka Source RTM
- SPARK-50284 Ändra dokument för funktionen parseJson
-
SPARK-56035 [SQL] Introduktion
AggregationValidatorför verifiering av enstaka passAggregate - SPARK-55557 Återställ "[SC-223720][SQL] Hyperboliska funktioner bör inte flöda över med stora indata"
- SPARK-56075 Ta bort en batch med döda python-felklasser
- SPARK-55967 Enhetliggör kolumnkonvertering för connect DataFrame
- SPARK-53915 Lägg till RealTimeScanExec och möjlighet att köra tidskrävande batchar
- SPARK-55557 Hyperboliska funktioner bör inte flöda över med stora indata
- SPARK-55147 Ange tidsstämpelintervall för hämtning av tidsintervallsammanslagning i V4-lagringsformat
- SPARK-56056 Stöd för enklare arbetsprofilering med viztracer
- SPARK-55948 Lägg till DSv2 CDC-anslutnings-API, analysmatchning och SQL CHANGES-sats
- SPARK-54599 Använd igen "[SC-219008][PYTHON] Omstrukturera PythonExcept...
- SPARK-55390 Konsolidera SQL_SCALAR_ARROW_UDF-, mappnings- och serialiseringslogik
- SPARK-56023 Bättre belastningsutjämning i LowLatencyMemoryStream
- SPARK-55986 Uppgradera svart till 26.3.1
- SPARK-55667 Flytta check_dependencies till init
- SPARK-55145 Stöd för Avro för tidsstämpelbaserade RocksDB-tillståndsnyckelkodare
- SPARK-53970 Ta bort felaktig "valfri" tagg för messageName...
- SPARK-55059 Återställ "[SC-224058][PYTHON] Ta bort lösningen för tomma tabeller i toPandas"
- SPARK-50111 Lägg till stöd för underplottar för cirkeldiagram i Plotly-backend
- SPARK-56081 Justera idxmax- och idxmin NA-hantering med Pandas 3
- SPARK-56080 Justera Series.argmax/argmin med Pandas 3.0 NA-hantering
- SPARK-56060 Hantera pandas 3 null-strängkonvertering i describe() för tomma tidsstämpelramar
- SPARK-55059 Ta bort en tom tabelllösning i toPandas
- SPARK-55995 Stöd FÖR TIDSSTÄMPEL MED LOKAL TIDSZON i SQL-syntax
- SPARK-55976 Använd Set i stället för Seq för skrivbehörigheter
-
SPARK-56073 Förenkla bygget av
PythonRunnerConfMap -
SPARK-55887 Särskild hantering för
CollectLimitExec/CollectTailExecför att undvika fullständig tabellskanning - SPARK-55980 Använd alltid _cast_back_float i numerisk aritmetik
- SPARK-55357 Åtgärda docstring för timestamp_add
- SPARK-55667 Återställ "[SC-223289][PYTHON][CONNECT] Flytta check_dependencies till init"
- SPARK-54285 Återställ "[PYTHON] Cachelagra tidszonsinformation för att undvika dyr tidsstämpelkonvertering"
- SPARK-56021 Öka maxChangeFileReplay-standardtröskeln för AutoSnapshotRepair från 50 till 500
- SPARK-55870 Lägga till dokument för geo-typer
-
SPARK-55962 Använd
getShorti stället förgetIntatt casta inputShortsFromIntsLittleEndianpå Little Endian-plattformar - SPARK-55903 Förenkla MERGE-schemautveckling och kontrollera skrivbehörigheter
- SPARK-55326 En fjärrsession frigörs när SPARK_CONNECT_RELEASE_SESSION_ON_EXIT är inställd
- SPARK-55667 Flytta check_dependencies till init
- SPARK-55884 Lägg till v1StatsToV2Stats till DataSourceV2Relation
- SPARK-55929 Lägg till saknad toString() i TableChange.UpdateColumnDefaultValue
- SPARK-55851 Förtydliga typer av partition och läsning av datakällor
- SPARK-55828 Lägg till DSV2 TableChange toString och fixa saknad felklass för Merge Into Schema Evolution
- SPARK-55790 Skapa ett fullständigt SRS-register med proj 9.7.1-data
- SPARK-55645 Lägg till serdeName i CatalogStorageFormat
- SPARK-54796 Åtgärda NPE som orsakas av ett kapplöpningstillstånd mellan initiering av executor och shuffle-migrering
- SPARK-55983 Nya funktioner för enkelpassanalysator och felkorrigeringar
- SPARK-55964 Cachesammanhållning: rensa funktionsregistret på DROP DATABASE
- SPARK-55868 Åtgärda predikatnedtryckning för inmemorytabell för V2-filters
- SPARK-55973 LeftSemi-optimering för stream-stream-anslutning
- SPARK-54665 Åtgärda jämförelse mellan boolesk och sträng för att matcha Pandas-beteende
- SPARK-55539 Tillåt gjutning från GeographyType till GeometryType
- SPARK-55695 Undvik dubbel planering i åtgärder på radnivå
- SPARK-55904 Använda _check_same_session för att begränsa typer
- SPARK-55965 Lägg till varning när pandas >= 3.0.0 används med PySpark
- SPARK-55493 [SS] Använd inte mkdirs i loggkatalogen för förskjutning/incheckning av kontrollpunkter i StateDataSource
- SPARK-55851 Återställ "[SC-223270][PYTHON] Förtydliga typer av datakällans partition och läsning"
- SPARK-55645 Återställ "[SC-221839][SQL] Lägg till serdeName i CatalogStorageFormat"
- SPARK-55640 Sprida WKB-parsningsfel för geometri och geografi
- SPARK-55693 Undvik dödläge genom att göra SparkSession.observationManager till en icke-lat val
- SPARK-55528 Lägg till standardsorteringsstöd för SQL UDF:er
-
SPARK-55860 Använd
UNABLE_TO_INFER_SCHEMAi stället förUNABLE_TO_INFER_SCHEMA_FOR_DATA_SOURCE - SPARK-55275 Lägg till Sql-tillstånd för InvalidPlanInput för sql/connect
- SPARK-55645 Lägg till serdeName i CatalogStorageFormat
- SPARK-55716 Stöd för INTE NULL-begränsningstvingande för infogningar av V1-filkälltabell
- SPARK-53226 Få ClosureCleaner att fungera med Java22+
- SPARK-55997 Ange övre gräns till prefixScan i RocksDB-tillståndslagerprovidern
- SPARK-55851 Förtydliga typer av partition och läsning av datakällor
- SPARK-55954 Ta bort den felaktiga överlagringstyptipset för fillna
- SPARK-56016 Bevara namngivna seriekolumner i sammanfogning med ignore_index på Pandas 3
- SPARK-55502 Felhantering för att förena UDF- och UDTF-pilkonvertering
-
SPARK-55989 Bevara icke-int64-index dtypes i
restore_index - SPARK-55955 Ta bort tips för överlagringstyp för släpp
- SPARK-55945 [SDP] Stöd för strukturerade identifierare för flöden i SDP-ivriga analysprotos
- SPARK-55714 JDK kan utlösa ArithmeticException utan meddelande
- SPARK-55991 Åtgärda unicode-relaterad SQL-textskada med parametrar
- SPARK-55696 Lägg till explicit fel i Encoders.bean för gränssnittsklassen
- SPARK-55533 Stöd för IGNORE NULLS/RESPECT NULLS för collect_set
- SPARK-55987 Åtgärda extrahering av tidsstämpel för V4-anslutning med hjälp av findJoinKeyOrdinalForWatermark
- SPARK-55946 Konfigurera pandas_priority så att blandade binära ops skickas korrekt till pandas-on-Spark
- SPARK-55264 Lägg till ExecuteOutput-kommandot i Spark Connect-pipelines proto
- SPARK-47672 Undvik dubbel eval från pushDown med projektion
- SPARK-55780 Ersätt PNG-logotypen med SVG i Spark Web UI
- SPARK-55821 Framtvinga argument med enbart nyckelord i serialiserarens init-metoder
- SPARK-55621 Åtgärda tvetydig och onödig unicode-användning
- SPARK-55662 Implementering av argumentet idxmin-axel
- SPARK-55631ALTER TABLE måste ogiltigförklara cacheminnet för DSv2-tabeller
-
SPARK-55692 Korrigering
SupportsRuntimeFilteringochSupportsRuntimeV2Filteringdokumentation - SPARK-55928 Ny linter för konfigurationseffektivitet i vyer och UDF:er
- SPARK-55440 Types Framework – Fas 1a – Core Type System Foundation
- SPARK-55631 Återställ "[SC-221596][SQL] ALTER TABLE måste ogiltigförklara cacheminnet för DSv2-tabeller"
- SPARK-55631ALTER TABLE måste ogiltigförklara cacheminnet för DSv2-tabeller
-
SPARK-55683 Optimera
VectorizedPlainValuesReader.readUnsignedLongs - SPARK-55892 Det gick inte att läsa in tillståndsarkivet eftersom den återanvända SST-filen togs bort av underhåll
- SPARK-55946 Återställ "[SC-223027][PS] Konfigurera pandas_priority så att blandade binära ops skickas korrekt till pandas-on-Spark"
- SPARK-55891 Bevara SQL-skriptkontexten inuti EXECUTE IMMEDIATE
- SPARK-55907 Åtgärda felaktiga felpositioner för ogiltiga datatyper i CREATE FUNCTION
- SPARK-55946 Konfigurera pandas_priority så att blandade binära ops skickas korrekt till pandas-on-Spark
- SPARK-55694 Blockera begränsningar i CTAS/RTAS på parsningsnivå
-
SPARK-55682 ServiceLoader-returnerad iterator kan utlösas
NoClassDefFoundErrorhasNext() - SPARK-55155 Korrigering SETCATALOG för att använda specialtecken och backticks i identifierarnamnet
- SPARK-55932 Åtgärda XML till variantparser-låsning i negativ skala
- SPARK-55673 Lägga till fler tester för kapslad typkodare
-
SPARK-55679 Åtgärda detektering
sun.io.serialization.extendedDebugInfopå Java 25 - SPARK-55957 Lägg till "DATA_SOURCE_NOT_FOUND" i Catalog.ERROR_HANDLING_RULES
- SPARK-55052 Lägga till AQEShuffleRead-egenskaper i fysiskt planträd
-
SPARK-55652 Optimera
VectorizedPlainValuesReader.readShorts()med direkt matrisåtkomst för heapbuffertar -
SPARK-55659 Förbättra
EventLogFileWriterloggåtgärdenstop -
SPARK-54666 Lämna numeriska typer oförändrade på
to_numeric - SPARK-55654 Aktivera TreePattern-beskärning för EliminateSubqueryAliases och ResolveInlineTables
- SPARK-55533 Återställ "[SC-220538][SQL] Stöd för IGNORE NULLS/RESPECT NULLS för collect_set"
- SPARK-55901 Generera ett felmeddelande från Series.replace() utan argument
- SPARK-55896 Använda numpy-funktioner i stället för builtins
-
SPARK-55655 Gör
CountVectorizerordförråd deterministiskt när räkningarna är lika -
SPARK-55811 [SQL] Fånga
NonFatali stället förUnresolvedExceptionnär du anroparnodeWithOutputColumnsString - SPARK-55533 Stöd för IGNORE NULLS/RESPECT NULLS för collect_set
-
SPARK-55435 Använd
StringBuilderi stället förStringBuffer - SPARK-54807 Tillåt kvalificerade namn för inbyggda funktioner och sessionsfunktioner (#198171)
- SPARK-55854 Tagga dubblettattribut för direktströmning i Expandera utdata för att förhindra AMBIGUOUS_REFERENCE
- SPARK-55261 Implementera Lässtöd för Parquet för geo-typer
- SPARK-55416 Streaming Python datakällans minnesläcka när slutpositionen inte uppdateras
- SPARK-55465 Stöd för GeometryType i convert_numpy
- SPARK-55801 Åtgärda typtips för _SimpleStreamReaderWrapper.getCache
- SPARK-55800 Ta bort den oanvända typkontrollen för datetime.date
- SPARK-55663 Förena modulen för datakällfunktioner
- SPARK-55665 Förena hur arbetare upprättar en anslutning till exekutorn
- SPARK-53446 Optimera BlockManager-borttagningsåtgärder med cachelagrade blockmappningar
- SPARK-55867 Åtgärda StringMethods med Pandas 3
- SPARK-55501 Åtgärda listagg distinct + within group order by bug
- SPARK-55558 Lägga till stöd för tuppeln/Theta-uppsättningsåtgärder
- SPARK-55636 Lägga till detaljerade fel vid deduplicering av ogiltiga kolumner
- SPARK-55788 Stöd ExtensionDType för heltal i Pandas UDF
- SPARK-55464 Stöd för GeographyType i convert_numpy
- SPARK-55530 Stöd för Geo-resultatuppsättningar i Hive- och Thrift-servern
- SPARK-55525 Åtgärda UDTF_ARROW_TYPE_CONVERSION_ERROR med en odefinierad felmeddelandeparameter
- SPARK-55626 Läs inte in metadatakolumner i tabellen om det inte behövs i V2TableUtil
- SPARK-55533 Återställ "[SC-220538][SQL] Stöd för IGNORE NULLS/RESPECT NULLS för collect_set"
-
SPARK-55435 Återställ "[SC-219656][CORE][SQL] Använd
StringBuilderi stället förStringBuffer" - SPARK-55533 Stöd för IGNORE NULLS/RESPECT NULLS för collect_set
-
SPARK-54452 Åtgärda tomt svar från SparkConnect-servern för
spark.sql(...)i FlowFunction - SPARK-55638 Omstrukturera WKT-serialisering i GeometryModel
-
SPARK-55551 Förbättra
BroadcastHashJoinExecutdatapartitionering - SPARK-54314 Förbättra Server-Side debuggability i Spark Connect genom att samla in klientprogrammets filnamn och radnummer
-
SPARK-55517 Optimera
VectorizedPlainValuesReader.readBytes()med direkt matrisåtkomst för heapbuffertar -
SPARK-55495 Korrigering
EventLogFileWriters.closeWriterför att hanteracheckError -
SPARK-55279 Lägg till
sketch_funcsgrupp för DataSketches SQL-funktioner -
SPARK-55435 Använd
StringBuilderi stället förStringBuffer - SPARK-55064 Stöd för obestämda shuffle-försök på frågenivå
- SPARK-55411 SPJ kan utlösa ArrayIndexOutOfBoundsException när kopplingsnycklar är mindre än klusternycklar
- SPARK-55451 Markörer måste börja samla in resultat på OPEN, inte först FETCH
- SPARK-54687 Lägga till fler kantfall med generatorer
- SPARK-55691 GetStatus-klient
-
SPARK-55277 Lägg till
protobuf_funcsgrupp för Protobuf SQL-funktioner -
SPARK-55822 Byt
_LEGACY_ERROR_TEMP_0052namn tillCREATE_VIEW_WITH_IF_NOT_EXISTS_AND_REPLACE - SPARK-55236 Åtgärda oväntat undantag i vissa CoarseGrainedExecutorBackendSuite-testfall
- SPARK-55275 SQL-tillståndstäckning: IllegalStateException
- SPARK-55462 Återinför "[SC-221123][PYTHON] Lägga till stöd för VariantType i convert_numpy"
- SPARK-55062 Stöd för proto2-tillägg i protobuf-funktioner
-
SPARK-55248 Rensa jacksons inaktuella API-användning i
streaming.checkpointing.Checksum - SPARK-55250 Minska Hive-klientanrop på CREATE NAMESPACE
-
SPARK-55247 Rensa inaktuell API-användning relaterad till
o.a.c.io.input.BoundedInputStream - SPARK-55198 spark-sql bör hoppa över kommentarsraden med inledande blanksteg
-
SPARK-55826 Byt
_LEGACY_ERROR_TEMP_0006namn tillMERGE_INSERT_VALUE_COUNT_MISMATCH - SPARK-55127 Lägg till avro_funcs grupp för Avro SQL-funktioner
- SPARK-54914 [SQL] Åtgärda DROP-operatorn i rörsyntaxen för att stödja kvalificerade kolumnnamn
-
SPARK-55113
EnsureRequirementsska kopiera taggar - SPARK-55074 Lägg till test för sammanslagning till ANSI-typtvång
- SPARK-54217 Synkronisera PythonRunners MonitorThread kill-beslut
- SPARK-54374 Förstora SVG viewBox-attributet för initiering av SQL-planvisualisering
- SPARK-54971 Lägg till WITH EVOLUTION-syntax SCHEMA för SQL INSERT
- SPARK-55065 Undvik att göra två JDBC API-anrop
- SPARK-55033 Åtgärda stringArgs för DSv2-skrivkommandon
-
SPARK-55041 Rensa några oanvända privata
funcion/valfrån kärnmodulen - SPARK-55338 Centralisera dekomprimeringslogiken för Spark Connect-begäran i gRPC-interceptorn
-
SPARK-55825 Byt
_LEGACY_ERROR_TEMP_1309namn tillPARTITION_BY_NOT_ALLOWED_WITH_INSERT_INTO - SPARK-55492 Verifiera att eventTime i medWatermark är en kolumn på den översta nivån
- SPARK-55802 Åtgärda heltalsöverskridande vid beräkning av Arrow batch-byten
- SPARK-55694 Blockera begränsningar i CTAS/RTAS på parsningsnivå
- SPARK-55843 Hantera enheten för datetime64- och timedelta64-datatyper
-
SPARK-55824 Byt
_LEGACY_ERROR_TEMP_1034namn tillWINDOW_FUNCTION_NOT_ALLOWED_IN_CLAUSE - SPARK-55819 Omstrukturera ExpandExec för att bli mer kortfattad
- SPARK-55341 Lägg till flaggan på lagringsnivå för cachelagrade lokala relationer
- SPARK-54599 Återställ "[SC-219008][PYTHON] Omstrukturera PythonException så att det kan ta errorClass med sqlstate"
- SPARK-46167 Lägga till axelimplementering i DataFrame.rank
- SPARK-54599 Omstrukturera PythonException så att det kan ta felklass med SQLSTATE
- SPARK-55529 Återanvänd [ES-1721989][SC-220716][PYTHON] Återställ batchsammanslagning på Arrow-nivå för icke-iterativa applyInPandas
-
SPARK-55794 Alltid alias för
OuterReferences - SPARK-55583 Validera Arrow-schema-typer i Python-datakälla
- SPARK-37711 Minska pandas beskriver antalet jobb från O(N) till O(1)
- SPARK-46168 Lägg till axelargument för idxmax
- SPARK-46162 Implementera nunique med axel=1
- SPARK-55552 Lägg till VariantType-stöd i ColumnarBatchRow.copy() och MutableColumnarRow
-
SPARK-55647 Åtgärda
ConstantPropagationfelaktig ersättning av attribut med icke-binärstabil sortering - SPARK-55747 Åtgärda NPE vid åtkomst till element från en matris som är null
-
SPARK-55757 Förbättra
spark.task.cpusvalideringen - SPARK-55699 Inkonsekvent läsning av LowLatencyClock när den används tillsammans med ManualClock
- SPARK-55702 Stöd för filterpredikat i fönsteraggregatfunktioner
- SPARK-55510 Åtgärda deleteRange of Rocksdb state store för att anropa changelogWriter
-
SPARK-55739 Optimera
OnHeapColumnVector.putIntsLittleEndian/putLongsLittleEndiananvändningen påPlatform.copyMemorysmå endianska plattformar - SPARK-55730 Gör inte tidszonen lägre
- SPARK-55701 ES-1694761[SS] Åtgärda konkurrenstillstånd i CompactibleFileStreamLog.allFiles
- SPARK-55462 Återställ "[SC-221123][PYTHON] Stöder VariantType i convert_numpy"
- SPARK-55144 Introducera ny tillståndsformatversion för performant stream-koppling
- SPARK-55606 Implementering på serversidan av GetStatus API
- SPARK-55462 Stöd för VariantType i convert_numpy
- SPARK-55600 Åtgärda pandas till pilen förlorar radantal när schemat har 0 kolumner på klassisk
- SPARK-55700 Åtgärda hantering av heltalsnycklar i serier med index som inte är heltal
- SPARK-55349 Konsolidera pandas-till-Apache Arrow-konverteringsverktyg i serialiserare
- SPARK-55681 Åtgärda likhet med singleton DataType efter deserialisering (återförsök)
- SPARK-55681 Återställ "[SC-221427][SC-214079][SQL] Åtgärda singleton DataType-likhet efter deserialisering"
- SPARK-55681 Åtgärda likhet med singleton DataType efter deserialisering
- SPARK-55674 Optimera tabellkonvertering med 0 kolumner i Spark Connect
- SPARK-55323 Tillämpa igen "[SC-218885][PYTHON] Flytta UDF-metadata till EvalConf för att förenkla arbetsprotokollet"
- SPARK-55322 Återanvändning [SC-221062][SQL] MaxBy och MinBy-överlagring med K element
- SPARK-55323 Återställ "[SC-218885][PYTHON] Flytta UDF-metadata till EvalConf för att förenkla arbetsprotokollet"
- SPARK-55615 Flytta SparkContext-import till klassgren
- SPARK-55323 Flytta UDF-metadata till EvalConf för att förenkla arbetsprotokollet
-
SPARK-55648 Hantera ett oväntat nyckelordsargumentfel
groupby(axis)med Pandas 3 -
SPARK-55647 Återställ "[SC-221274][SQL] Åtgärda
ConstantPropagationfelaktig ersättning av attribut med icke-binärt stabila sorteringar" - SPARK-55646 Omstrukturerade SQLExecution.withThreadLocalCaptured för att separera trådlokal avbildning från körning
- SPARK-54854 Lägga till ett UUIDv7 queryId i SQLExecution-händelser
- SPARK-55619 Åtgärda anpassade metrik för sammanslagna partitioner
-
SPARK-55647 Åtgärda
ConstantPropagationfelaktig ersättning av attribut med icke-binärstabil sortering -
SPARK-55322 Återställ "[SC-221062][SQL]
MaxByochMinByöverbelastning med K-element" - SPARK-54740 Starta felhandler tidigt i daemonläge
- SPARK-55493 [SS] Inte mkdirs i strömning kontrollpunkt tillstånd katalog i StateDataSource
-
SPARK-55322
MaxByochMinByöverbelastning med K-element -
SPARK-55625 Åtgärda StringOps för att få
strdtype att fungera korrekt - SPARK-55161 Återanvänd "[SC-218867][PYTHON] Stöd för profiler på Python-datakälla"
- SPARK-55505 Åtgärda NPE när man läser EXECUTION_ROOT_ID_KEY i samtidiga scenarier
- SPARK-55111 Återkontrollera oavslutad ompartitionering vid omstart av fråga
- SPARK-55593 Förena aggregeringstillstånd för vector_avg/vector_sum
-
SPARK-55500 Åtgärda analyscykeln mellan
ApplyDefaultCollation,ExtractWindowExpressionsochCollationTypeCasts - SPARK-55494 Introducera iterator/prefixScan med flera värden i StateStore API
- SPARK-55561 Lägga till återförsök för alla Kafka-administratörsklientmetoder
- SPARK-55296 Stöd för CoW-läge med Pandas 3
- SPARK-55479 Åtgärda formatproblem i SparkShreddingUtils
- SPARK-55372 Korrigering SHOW CREATE TABLE för tabeller/vyer med standardsortering
-
SPARK-55333 Aktivera
DateTypeochTimeTypeiconvert_numpy - SPARK-55129 Introducera nya nyckelkodare för tidsstämpel som första klass (UnsafeRow)
- SPARK-46163 DataFrame.update-parametrar filter_func och fel
- SPARK-55372 Återställ "[SC-220571][SQL] Korrigering SHOW CREATE TABLE för tabeller/vyer med standardsortering"
- SPARK-55480 Ta bort all oanvänd 'noqa' för 'ruff'
- SPARK-55471 Lägga till optimerarstöd för SequentialStreamingUnion
- SPARK-55584 Skapa bättre felmeddelande för EXEC IMMEDIATE med skalära underfrågor
- SPARK-55161 Återställ "[SC-218867][PYTHON] Stöd profilerare på python-datakälla"
-
SPARK-55506 Skicka explicit indataschema till
to_pandasiCogroupPandasUDFSerializer -
SPARK-55586 Lägg till
jdbc.pyexempel - SPARK-55161 Stöd för profileringsverktyg på Python-datakälla
- SPARK-55529 Återställ "[SC-220716][PYTHON] Återställ batchsammanslagning på pilnivå för icke-iterator applyInPandas"
-
SPARK-55385 Minimera omkomputationen i
zipWithIndex - SPARK-55529 Återställa batchsammanslagning på pilnivå för icke-iterator applyInPandas
-
SPARK-55389 Konsolidera
SQL_MAP_ARROW_ITER_UDFomslutnings-, mappnings- och serialiserarlogik - SPARK-55406 Omimplementera trådpoolen för ExecutePlanResponseReattachableIterator
-
SPARK-55372 Korrigering
SHOW CREATE TABLEför tabeller/vyer med standardsortering - SPARK-55367 Använd venv för att köra run-pip-tests
- SPARK-55355 Uppgradera mypy-versionen till den senaste
- SPARK-55460 Ta bort E203 från ruffs ignorera lista
- SPARK-55541 Stöd för geometri och geografi i katalysatortypkonverterare
- SPARK-55449 Aktivera WKB-parsning och skrivning för geografi
- SPARK-55339 Implementera stöd för WKT-skrivare för Geo-objekt
- SPARK-54122 Implementera TwsTester i Scala
- SPARK-54805 Implementera TwsTester i PySpark
- SPARK-55256 Använd på nytt "[SC-218596][SQL] Stöd för IGNORE NULLS/RESPECT NULLS för array_agg och collect_list"
-
SPARK-55156 Hantera
include_groupsförgroupby.apply - SPARK-55401 Lägg till logik för återförsök och timeout-hantering i pyspark-installationsnedladdning
- SPARK-55229 Implementera DataFrame.zipWithIndex i PySpark
- SPARK-55462 Stöd för UserDefinedType i convert_numpy
- SPARK-55483 Åtgärda NPE i PivotFirst när pivotkolumnen är en icke-atomisk typ med null-värden
-
SPARK-55490 Se till att
groupby(as_index=False)inkluderar en gruppering som inte finns i DataFrame med pandas 3 - SPARK-55473 Ersätt itertools.tee med kedja i applyInPandasWithState
- SPARK-55404 Alltid utlösa KeyboardInterrupt från SIGINT-hanteraren
- SPARK-55407 Ersätt logger.warn med logger.warning
Stöd för Databricks ODBC/JDBC-drivrutin
Databricks har stöd för ODBC/JDBC-drivrutiner som släppts under de senaste två åren. Ladda ned de nyligen släppta drivrutinerna och uppgradera (ladda ned ODBC, ladda ned JDBC).
Systemmiljö
- Operativsystem: Ubuntu 24.04.4 LTS
- Java: Zulu21.48+15-CA
- Scala: 2.13.16
- Python: 3.12.3
- R: 4.5.1
- Delta lake: 4.1.0
Installerade Python bibliotek
| Bibliotek | Utgåva | Bibliotek | Utgåva | Bibliotek | Utgåva |
|---|---|---|---|---|---|
| aiohappyeyeballs | 2.4.4 | aiohttp | 3.11.10 | aiosignal | 1.2.0 |
| kommenterad-dokument | 0.0.4 | annoterade typer | 0.7.0 | anyio | 4.7.0 |
| argon2-cffi | 21.3.0 | argon2-cffi-bindningar | 21.2.0 | arro3-core | 0.6.5 |
| pil | 1.3.0 | asttokens | 3.0.0 | astunparse | 1.6.3 |
| asynkron-lru | 2.0.4 | egenskaper | 24.3.0 | automatikkommando | 2.2.2 |
| azure-common | 1.1.28 | azure-core | 1.37.0 | azure-identity | 1.20.0 |
| azure-mgmt-core | 1.6.0 | azure-mgmt-web | 8.0.0 | azure-storage-blob (lagringstjänst i Azure) | 12.28.0 |
| Azure-lagring-fil-datainsjö | 12.22.0 | Babel | 2.16.0 | backports.tarfile | 1.2.0 |
| beautifulsoup4 | 4.12.3 | svart | 24.10.0 | blekmedel | 6.2.0 |
| körriktningsvisare | 1.7.0 | boto3 | 1.40.45 | botocore | 1.40.45 |
| cacheverktyg | 5.5.1 | certifikat/certifiering | 2025.4.26 | cffi | 1.17.1 |
| chardet | 4.0.0 | charset-normalizer | 3.3.2 | klicka | 8.1.8 |
| cloudpickle | 3.0.0 | kommunikation | 0.2.1 | konturritning | 1.3.1 |
| kryptografi | 44.0.1 | cyklist | 0.11.0 | Cython | 3.1.5 |
| Databricks-agenter | 1.9.1 | Databricks SDK | 0.67.0 | Dataclasses-json | 0.6.7 |
| dbus-python | 1.3.2 | debugpy | 1.8.11 | dekoratör | 5.1.1 |
| defusedxml | 0.7.1 | deltalake | 1.1.4 | Deprecated | 1.2.18 |
| distlib | 0.3.9 | Omvandling av docstring till markdown | 0.11 | utföra | 1.2.0 |
| Översikt av aspekter | 1.1.1 | fastapi | 0.128.0 | fastjsonschema | 2.21.1 |
| fillåsning | 3.17.0 | fontverktyg | 4.55.3 | fqdn | 1.5.1 |
| frozenlist | 1.5.0 | fsspec | 2023.5.0 | gitdb | 4.0.11 |
| GitPython | 3.1.43 | google-api-core | 2.28.1 | Google-autentisering | 2.47.0 |
| google-cloud-core | 2.5.0 | Google Cloud Storage - molntjänst för lagring | 3.7.0 | "google-crc32c" | 1.8.0 |
| google-återupptagbar-media | 2.8.0 | googleapis-common-protos | 1.65.0 | grpcio | 1.67.0 |
| grpcio-status | 1.67.0 | h11 | 0.16.0 | hf-xet | 1.2.0 |
| httpcore | 1.0.9 | httplib2 | 0.20.4 | httpx | 0.28.1 |
| huggingface_hub | 1.2.4 | IDNA | 3.7 | importlib_metadata | 8.5.0 |
| böja (grammatiskt) | 7.3.1 | iniconfig | 1.1.1 | ipyflow-core | 0.0.209 |
| ipykernel | 6.29.5 | ipython | 8.30.0 | ipython-genutils | 0.2.0 |
| ipywidgets | 7.8.1 | isodate | 0.7.2 | isoduration | 20.11.0 |
| jaraco.collections | 5.1.0 | jaraco.context | 5.3.0 | jaraco.functools | 4.0.1 |
| jaraco.text | 3.12.1 | Jedi | 0.19.2 | Jinja2 | 3.1.6 |
| jiter | 0.12.0 | jmespath | 1.0.1 | joblib | 1.4.2 |
| json5 | 0.9.25 | jsonpatch | 1.33 | jsonpointer | 3.0.0 |
| jsonschema | 4.23.0 | jsonschema-specifikationer | 2023.7.1 | jupyter-händelser | 0.12.0 |
| jupyter-lsp | 2.2.5 | jupyter_client | 8.6.3 | jupyter_core | 5.7.2 |
| jupyter_server | 2.15.0 | jupyter_server_terminals | 0.5.3 | jupyterlab | 4.3.4 |
| jupyterlab_pygments | 0.3.0 | jupyterlab_server | 2.27.3 | jupyterlab_widgets | 1.1.11 |
| kiwisolver (ett verktyg/programvara) | 1.4.8 | langchain-core | 1.2.6 | langchain-openai | 1.1.6 |
| langsmith | 0.6.1 | launchpadlib | 1.11.0 | lazr.restfulclient | 0.14.6 |
| lazr.uri | 1.0.6 | litellm | 1.75.9 | markdown –it-py | 2.2.0 |
| MarkupSafe | 3.0.2 | skumgodis | 3.26.2 | matplotlib | 3.10.0 |
| matplotlib-inline | 0.1.7 | Mccabe | 0.7.0 | mdurl | 0.1.0 |
| felstämning | 3.1.2 | mlflow-skinny | 3.8.1 | mmh3 | 5.2.0 |
| more-itertools | 10.3.0 | MSAL | 1.34.0 | msal-förlängningar | 1.3.1 |
| multidikt | 6.1.0 | mypy-extensions | 1.0.0 | nbclient | 0.10.2 |
| nbconvert | 7.16.6 | nbformat | 5.10.4 | nest-asyncio | 1.6.0 |
| nodeenv | 1.10.0 | anteckningsbok | 7.3.2 | anteckningsbok_shim | 0.2.4 |
| numpy | 2.1.3 | oauthlib (ett OAuth-bibliotek) | 3.2.2 | openai | 2.14.0 |
| opentelemetri-api | 1.39.1 | opentelemetry-proto | 1.39.1 | opentelemetry-sdk | 1.39.1 |
| opentelemetry-semantic-conventions (semantiska konventioner för Opentelemetry) | 0.60b1 | orjson | 3.11.5 | Åsidosätter | 7.4.0 |
| emballage | 24,2 | Pandas | 2.2.3 | pandocfilters | 1.5.0 |
| parso | 0.8.4 | pathspec | 0.10.3 | Patsy | 1.0.1 |
| pexpect (ett Python-bibliotek för styrning av fjärrterminaler) | 4.8.0 | kudde | 11.1.0 | pip | 25.0.1 |
| platformdirs | 4.3.7 | plotly | 5.24.1 | pluggaktig | 1.5.0 |
| prometheus_client | 0.21.1 | prompt-verktygslåda | 3.0.43 | propcache | 0.3.1 |
| proto-plus | 1.27.0 | protobuf | 5.29.4 | psutil | 5.9.0 |
| psycopg2 | 2.9.11 | ptyprocess | 0.7.0 | pure-eval | 0.2.2 |
| pyarrow | 21.0.0 | pyasn1 | 0.4.8 | pyasn1-modules | 0.2.8 |
| pyccolo | 0.0.71 | pycparser | 2.21 | pydantisk | 2.10.6 |
| pydantic_core | 2.27.2 | pyflakes | 3.2.0 | Pygments | 2.19.1 |
| PyGObject | 3.48.2 | pyiceberg | 0.10.0 | PyJWT | 2.10.1 |
| pyodbc | 5.2.0 | pyparsing (ett Python-bibliotek för att analysera text) | 3.2.0 | pyright | 1.1.394 |
| pyroaring | 1.0.3 | pytest | 8.3.5 | python-dateutil | 2.9.0.post0 |
| python-dotenv | 1.2.1 | python-json-logger | 3.2.1 | python-lsp-jsonrpc | 1.1.2 |
| python-lsp-server | 1.12.2 | pytoolconfig | 1.2.6 | pytz | 2024.1 |
| PyYAML | 6.0.2 | pyzmq | 26.2.0 | Referenser | 0.30.2 |
| regex | 2024.11.6 | begäranden | 2.32.3 | requests-toolbelt | 1.0.0 |
| RFC 3339-valideringsverktyg | 0.1.4 | rfc3986-validator (validerare för RFC 3986) | 0.1.1 | rik | 13.9.4 |
| rep | 1.13.0 | rpds-py | 0.22.3 | rsa | 4.9.1 |
| s3transfer | 0.14.0 | scikit-learn (en maskininlärningsbibliotek) | 1.6.1 | scipy | 1.15.3 |
| född vid havet | 0.13.2 | Send2Trash | 1.8.2 | setuptools | 78.1.1 |
| shellingham | 1.5.4 | six | 1.17.0 | smmap | 5.0.0 |
| sniffio | 1.3.0 | sorterade behållare | 2.4.0 | soupsieve | 2.5 |
| sqlparse | 0.5.5 | ssh-import-id | 5.11 | stapeldatastruktur | 0.6.3 |
| starlette | 0.50.0 | strictyaml | 1.7.3 | uthållighet | 9.0.0 |
| avslutad | 0.17.1 | threadpoolctl | 3.5.0 | tiktoken | 0.12.0 |
| tinycss2 | 1.4.0 | tokenize_rt | 6.1.0 | Tokeniserare | 0.22.2 |
| Tomli | 2.0.1 | tornad | 6.5.1 | tqdm | 4.67.1 |
| Traitlets | 5.14.3 | typskydd | 4.3.0 | typer-slim | 0.21.1 |
| types-python-dateutil | 2.9.0.20251115 | skrivgranskning | 0.9.0 | typing_extensions | 4.12.2 |
| tzdata | 2024.1 | ujson | 5.10.0 | obevakade uppgraderingar | 0,1 |
| URI-mall | 1.3.0 | urllib3 | 2.3.0 | uuid_utils | 0.12.0 |
| uvicorn | 0.40.0 | virtualenv | 20.29.3 | wadllib | 1.3.6 |
| wcwidth | 0.2.5 | webcolors | 25.10.0 | webbkodningar | 0.5.1 |
| websocket-klient | 1.8.0 | whatthepatch | 1.0.2 | hjul | 0.45.1 |
| närhelst | 0.7.3 | widgetsnbextension | 3.6.6 | inhöljd | 1.17.0 |
| yapf | 0.40.2 | jarl | 1.18.0 | blixtlås | 3.21.0 |
| zstandard | 0.23.0 |
Installerade R-bibliotek
R-bibliotek installeras från Posit Správca balíkov CRAN-snapshot 2025-11-20.
| Bibliotek | Utgåva | Bibliotek | Utgåva | Bibliotek | Utgåva |
|---|---|---|---|---|---|
| pil | 22.0.0 | askpass | 1.2.1 | säkerställ att | 0.2.1 |
| backporteringar | 1.5.0 | bas | 4.5.1 | base64enc | 0.1-3 |
| bigD | 0.3.1 | lite grann | 4.6.0 | bit64 | 4.6.0-1 |
| bitops | 1.0-9 | klump | 1.2.4 | stövel | 1.3-30 |
| bryggning | 1.0-10 | Brio | 1.1.5 | kvast | 1.0.10 |
| bslib | 0.9.0 | kaschmir | 1.1.0 | samtalsapp | 3.7.6 |
| Caret | 7.0-1 | cellranger | 1.1.0 | kronometer | 2.3-62 |
| klass | 7.3-22 | CLI | 3.6.5 | klipparen | 0.8.0 |
| klocka | 0.7.3 | kluster | 2.1.6 | codetools | 0.2-20 |
| commonmark | 2.0.0 | kompilator | 4.5.1 | config | 0.3.2 |
| Konfliktfylld | 1.2.0 | cpp11 | 0.5.2 | crayon | 1.5.3 |
| autentiseringsuppgifter | 2.0.3 | lockig | 7.0.0 | datatabell | 1.17.8 |
| Datauppsättningar | 4.5.1 | DBI | 1.2.3 | dbplyr | 2.5.1 |
| beskrivning | 1.4.3 | devtools | 2.4.6 | diagram | 1.6.5 |
| diffobj | 0.3.6 | bearbeta/smält | 0.6.39 | nedbelyst | 0.4.5 |
| dplyr | 1.1.4 | dtplyr | 1.3.2 | e1071 | 1.7-16 |
| ellips... | 0.3.2 | utvärdera | 1.0.5 | fans | 1.0.7 |
| färger | 2.1.2 | snabbkarta | 1.2.0 | Font Awesome | 0.5.3 |
| forcats | 1.0.1 | foreach (en loop som itererar över varje element i en samling) | 1.5.2 | utländsk | 0.8-86 |
| fs | 1.6.6 | framtid | 1.68.0 | framtid.applicera | 1.20.0 |
| gurgla | 1.6.0 | Generika | 0.1.4 | Gert | 2.2.0 |
| ggplot2 | 4.0.1 | gh | 1.5.0 | git2r | 0.36.2 |
| gitcreds | 0.1.2 | glmnet | 4.1-10 | globals | 0.18.0 |
| glue | 1.8.0 | googledrive | 2.1.2 | googlesheets4 | 1.1.2 |
| Gower | 1.0.2 | grafik | 4.5.1 | grDevices | 4.5.1 |
| rutnät | 4.5.1 | gridExtra | 2.3 | gsubfn | 0.7 |
| gt | 1.1.0 | g-tabell | 0.3.6 | skyddshjälm | 1.4.2 |
| fristad | 2.5.5 | högre | 0.11 | HMS | 1.1.4 |
| htmltools | 0.5.8.1 | htmlwidgets | 1.6.4 | httpuv | 1.6.16 |
| httr | 1.4.7 | httr2 | 1.2.1 | Idn | 1.0.1 |
| -ini | 0.3.1 | IPRED-direktivet | 0.9-15 | isoband | 0.2.7 |
| Iteratörer | 1.0.14 | jquerylib | 0.1.4 | jsonlite | 2.0.0 |
| juicyjuice | 0.1.0 | KernSmooth | 2.23-22 | knitr | 1.50 |
| Märkning | 0.4.3 | senare | 1.4.4 | Gitter | 0,22-5 |
| lava | 1.8.2 | livscykel | 1.0.4 | lyssnav | 0.10.0 |
| litedown | 0.8 | lubridate | 1.9.4 | magrittr | 2.0.4 |
| Markdown | 2.0 | Massa | 7.3-60.0.1 | Matris | 1.6-5 |
| lagra i minnet | 2.0.1 | metoder | 4.5.1 | mgcv | 1.9-1 |
| pantomime | 0,13 | mini-användargränssnitt | 0.1.2 | mlflow | 3.6.0 |
| ModelMetrics | 1.2.2.2 | modelr | 0.1.11 | nlme | 3.1-164 |
| nnet | 7.3-19 | numDeriv | 2016.8-1.1 | OpenSSL | 2.3.4 |
| otel | 0.2.0 | parallel | 4.5.1 | parallellt | 1.45.1 |
| pillar | 1.11.1 | pkgbuild | 1.4.8 | pkgconfig | 2.0.3 |
| pkgdown | 2.2.0 | pkgload | 1.4.1 | plogr | 0.2.0 |
| plyr | 1.8.9 | berömma | 1.0.0 | prettyunits | 1.2.0 |
| pROC | 1.19.0.1 | processx | 3.8.6 | Prodlim | 2025.04.28 |
| profvis | 0.4.0 | Förlopp | 1.2.3 | progressr | 0.18.0 |
| löften | 1.5.0 | proto | 1.0.0 | proxy | 0.4-27 |
| P.S. | 1.9.1 | purrr | 1.2.0 | R6 | 2.6.1 |
| ragg | 1.5.0 | randomForest | 4.7-1.2 | rappdirs | 0.3.3 |
| rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 | Rcpp | 1.1.0 |
| RcppEigen | 0.3.4.0.2 | reaktionskapabel | 0.4.4 | reactR | 0.6.1 |
| readr | 2.1.6 | läs excel | 1.4.5 | recipes | 1.3.1 |
| Revanschmatch | 2.0.0 | omkamp2 | 2.1.2 | fjärrkontroller | 2.5.0 |
| reproducerbart exempel | 2.1.1 | omforma2 | 1.4.5 | rlang | 1.1.6 |
| rmarkdown | 2.30 | RODBC | 1.3-26 | roxygen2 | 7.3.3 |
| rpart | 4.1.23 | rprojroot | 2.1.1 | Rserve | 1.8-15 |
| RSQLite | 2.4.4 | rstudioapi | 0.17.1 | rversions | 3.0.0 |
| rvest | 1.0.5 | S7 | 0.2.1 | Sass | 0.4.10 |
| fjäll | 1.4.0 | Selectr | 0.4-2 | Sessioninformation | 1.2.3 |
| form | 1.4.6.1 | glänsande | 1.11.1 | sourcetools | 0.1.7-1 |
| sparklyr | 1.9.3 | SparkR | 4.1.0 | sparsevctrs | 0.3.4 |
| spatiala | 7.3-17 | spliner | 4.5.1 | sqldf | 0.4-11 |
| SQUAREM | 2021.1 | statistik | 4.5.1 | statistik4 | 4.5.1 |
| sträng | 1.8.7 | stringr | 1.6.0 | överlevnad | 3.5-8 |
| Självsäkerhet | 5.17.14.1 | sys | 3.4.3 | systemfonts | 1.3.1 |
| tcl/tk-programmeringsspråk | 4.5.1 | Testthat | 3.3.0 | textformgivning | 1.0.4 |
| tibble | 3.3.0 | tidyr | 1.3.1 | tidyselect | 1.2.1 |
| tidyverse | 2.0.0 | tidsomställning | 0.3.0 | datumTid | 4051.111 |
| tinytex | 0.58 | verktyg | 4.5.1 | tzdb | 0.5.0 |
| URL-kontrollant | 1.0.1 | använd detta | 3.2.1 | utf8 | 1.2.6 |
| hjälpmedel | 4.5.1 | Universellt unik identifierare (UUID) | 1.2-1 | V8 | 8.0.1 |
| vctrs | 0.6.5 | viridisLite | 0.4.2 | Vroom | 1.6.6 |
| Waldo | 0.6.2 | viskare | 0.4.1 | vissna | 3.0.2 |
| xfun | 0.54 | xml2 | 1.5.0 | xopen | 1.0.1 |
| xtable | 1.8-4 | yaml | 2.3.10 | zeallot | 0.2.0 |
| ZIP-fil | 2.3.3 |
Installerade Java- och Scala-bibliotek (Scala 2.13-klusterversion)
| grupp-id | Artefakt-ID | Utgåva |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.clearspring.analytics | ström | 2.9.8 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.53.0 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | scalapb-runtime_2.13 | 0.4.15-11 |
| com.esotericsoftware | kryogent skuggad | 4.0.3 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | klasskamrat | 1.5.1 |
| com.fasterxml.jackson.core | jackson-anteckningar | 2.18.2 |
| com.fasterxml.jackson.core | jackson-core | 2.18.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.18.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | Jackson-datatype-joda | 2.18.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.18.3 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.18.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.13 | 2.18.2 |
| com.github.ben-manes.koffein | koffein | 2.9.3 |
| com.github.blemale | scaffeine_2.13 | 4.1.0 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1-infödda |
| com.github.fommil.netlib | inhemskt_system-java | 1.1 |
| com.github.fommil.netlib | inhemskt_system-java | 1.1-infödda |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-infödda |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-infödda |
| com.github.luben | zstd-jni | 1.5.7-6 |
| com.github.virtuald | curvesapi | 1.08 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.api.grpc | proto-google-common-protos | 2.5.1 |
| com.google.auth | google-auth-library-credentials | 1.20.0 |
| com.google.auth | google-auth-library-oauth2-http | 1.20.0 |
| com.google.auto.value | auto-value-annotations | 1.10.4 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.11.0 |
| com.google.crypto.tink | Klirr | 1.16.0 |
| com.google.errorprone | felbenägna anteckningar | 2.36.0 |
| com.google.flatbuffers | flatbuffers-java | 25.2.10 |
| com.google.guava | felåtkomst | 1.0.3 |
| com.google.guava | guava (en tropisk frukt) | 33.4.8-jre |
| com.google.http-client | google-http-client | 1.43.3 |
| com.google.http-client | google-http-client-gson | 1.43.3 |
| com.google.j2objc | j2objc-annotations | 3.0.0 |
| com.google.protobuf | protobuf-java | 3.25.5 |
| com.google.protobuf | protobuf-java-util | 3.25.5 |
| com.helger | profilerare | 1.1.1 |
| com.ibm.icu | icu4j | 75.1 |
| com.jcraft | jsch | 0.1.55 |
| com.lihaoyi | källkod_2.13 | 0.1.9 |
| com.microsoft.azure | Azure Data Lake Store SDK | 2.3.10 |
| com.microsoft.sqlserver | mssql-jdbc | 12.8.0.jre11 |
| com.microsoft.sqlserver | mssql-jdbc | 12.8.0.jre8 |
| com.ning | compress-lzf (komprimera-lzf) | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.linser | lenses_2.13 | 0.4.13 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.13 | 0.10.0 |
| com.twitter | util-app_2.13 | 19.8.1 |
| com.twitter | util-core_2.13 | 19.8.1 |
| com.twitter | util-function_2.13 | 19.8.1 |
| com.twitter | util-jvm_2.13 | 19.8.1 |
| com.twitter | util-lint_2.13 | 19.8.1 |
| com.twitter | util-registry_2.13 | 19.8.1 |
| com.twitter | util-stats_2.13 | 19.8.1 |
| com.typesafe | config | 1.4.3 |
| com.typesafe.scala-logging | scala-logging_2.13 | 3.9.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | univocity-parsers | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| com.zaxxer | SparseBitSet | 1.3 |
| commons-cli | commons-cli | 1.10.0 |
| commons-codec | commons-codec | 1.19.0 |
| gemensamma-samlingar | gemensamma-samlingar | 3.2.2 |
| commons-dbcp | commons-dbcp | 1,4 |
| filuppladdning på commons | filuppladdning på commons | 1.6.0 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.21.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging (en mjukvarubibliotek) | commons-logging (en mjukvarubibliotek) | 1.1.3 |
| allmänna poolen | allmänna poolen | 1.5.4 |
| dev.ludovic.netlib | arpack | 3.0.4 |
| dev.ludovic.netlib | Tråkig | 3.0.4 |
| dev.ludovic.netlib | LAPACK | 3.0.4 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | luftkompressor | 2.0.2 |
| io.delta | delta-sharing-client_2.13 | 1.3.10 |
| io.dropwizard.metrics | metrikkommentar | 4.2.37 |
| io.dropwizard.metrics | Kärnenhet för mätvärden | 4.2.37 |
| io.dropwizard.metrics | metrics-graphite | 4.2.37 |
| io.dropwizard.metrics | mätvärden-hälsokontroller | 4.2.37 |
| io.dropwizard.metrics | metrics-jetty10 | 4.2.37 |
| io.dropwizard.metrics | metrik-jmx | 4.2.37 |
| io.dropwizard.metrics | metrik-json | 4.2.37 |
| io.dropwizard.metrics | Metrics-JVM | 4.2.37 |
| io.dropwizard.metrics | mätdata-servlets | 4.2.37 |
| io.github.java-diff-utils | java-diff-utils | 4.15 |
| io.netty | netty-all | 4.2.7.Final |
| io.netty | netty-buffer | 4.2.7.Final |
| io.netty | netty-codec | 4.2.7.Final |
| io.netty | netty-codec-base | 4.2.7.Final |
| io.netty | netty-codec-classes-quic | 4.2.7.Final |
| io.netty | netty-codec-compression | 4.2.7.Final |
| io.netty | netty-codec-http (en Java-bibliotek för HTTP-kodning) | 4.2.7.Final |
| io.netty | netty-codec-http2 | 4.2.7.Final |
| io.netty | netty-codec-http3 | 4.2.7.Final |
| io.netty | netty-codec-marshalling | 4.2.7.Final |
| io.netty | netty-codec-native-quic | 4.2.7.Final-linux-aarch_64 |
| io.netty | netty-codec-native-quic | 4.2.7.Final-linux-x86_64 |
| io.netty | netty-codec-native-quic | 4.2.7.Final-osx-aarch_64 |
| io.netty | netty-codec-native-quic | 4.2.7.Final-osx-x86_64 |
| io.netty | netty-codec-native-quic | 4.2.7.Final-windows-x86_64 |
| io.netty | netty-codec-protobuf | 4.2.7.Final |
| io.netty | netty-codec-socks | 4.2.7.Final |
| io.netty | netty-common (only if it is a product name or technical term without a Swedish equivalent) | 4.2.7.Final |
| io.netty | netty-handler | 4.2.7.Final |
| io.netty | netty-handler-proxy | 4.2.7.Final |
| io.netty | netty-resolver (en Java-biblioteksfunktion för nätverkslösning) | 4.2.7.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-windows-x86_64 |
| io.netty | netty-tcnative-klasser | 2.0.74.Final |
| io.netty | netty-transport | 4.2.7.Final |
| io.netty | netty-transport-classes-epoll | 4.2.7.Final |
| io.netty | netty-transport-classes-io_uring | 4.2.7.Final |
| io.netty | netty-transport-classes-kqueue | 4.2.7.Final |
| io.netty | netty-transport-native-epoll | 4.2.7.Final |
| io.netty | netty-transport-native-epoll | 4.2.7.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.2.7.Final-linux-riscv64 |
| io.netty | netty-transport-native-epoll | 4.2.7.Final-linux-x86_64 |
| io.netty | netty-transport-native-io_uring | 4.2.7.Final-linux-aarch_64 |
| io.netty | netty-transport-native-io_uring | 4.2.7.Final-linux-riscv64 |
| io.netty | netty-transport-native-io_uring | 4.2.7.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.2.7.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.2.7.Final-osx-x86_64 |
| io.netty | netty-transport-inbyggd-unix-allmän | 4.2.7.Final |
| io.opencensus | opencensus-api | 0.31.1 |
| io.opencensus | opencensus-contrib-http-util | 0.31.1 |
| io.prometheus | simpleclient | 0.16.1-databricks |
| io.prometheus | enkelklient_gemensam | 0.16.1-databricks |
| io.prometheus | simpleclient_dropwizard | 0.16.1-databricks |
| io.prometheus | simpleclient_pushgateway | 0.16.1-databricks |
| io.prometheus | simpleclient_servlet | 0.16.1-databricks |
| io.prometheus | simpleclient_servlet_common | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_common | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_otel | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_otel_agent | 0.16.1-databricks |
| io.prometheus.jmx | samlare | 0.18.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | aktivering | 1.1.1 |
| javax.annotation | javax.annotation-api | 1.3.2 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.media | jai_core | jai_core_dummy |
| javax.transaction | jta | 1.1 |
| javax.transaction | transaktions-API | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolution | javolution | 5.5.1 |
| Jline | Jline | 2.14.6 |
| joda-time | joda-time | 2.14.0 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | ättikslag | 1.5 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | snöflinga-ingest-sdk | 0.9.6 |
| net.sourceforge.f2j | arpack_kombinerad_alla | 0,1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.13.1 |
| org.antlr | StringTemplate | 3.2.1 |
| org.apache.ant | Ant | 1.10.11 |
| org.apache.ant | ant-jsch | 1.10.11 |
| org.apache.ant | ant-launcher | 1.10.11 |
| org.apache.arrow | pilkomprimering | 18.3.0 |
| org.apache.arrow | arrow-format | 18.3.0 |
| org.apache.arrow | arrow-minneskärna | 18.3.0 |
| org.apache.arrow | arrow-memory-netty | 18.3.0 |
| org.apache.arrow | arrow-minne-netty-buffer-patch | 18.3.0 |
| org.apache.arrow | vektorpil | 18.3.0 |
| org.apache.avro | Avro | 1.12.1 |
| org.apache.avro | avro-ipc | 1.12.1 |
| org.apache.avro | avro-mapred | 1.12.1 |
| org.apache.commons | commons-collections4 | 4.5.0 |
| org.apache.commons | commons-compress | 1.28.0 |
| org.apache.commons | commons-configuration2 | 2.11.0 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.19.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | commons-text | 1.14.0 |
| org.apache.curator | kurator-klient | 5.9.0 |
| org.apache.curator | kuratorsramverk | 5.9.0 |
| org.apache.curator | kuratorsrecept | 5.9.0 |
| org.apache.datasketches | datasketches-java | 6.2.0 |
| org.apache.datasketches | datasketches-minne | 3.0.2 |
| org.apache.derby | Derby | 10.14.2.0 |
| org.apache.hadoop | hadoop-klient-körtid | 3.4.2 |
| org.apache.hive | hive-beeline | 2.3.10 |
| org.apache.hive | hive-cli | 2.3.10 |
| org.apache.hive | hive-jdbc | 2.3.10 |
| org.apache.hive | hive-llap-klient | 2.3.10 |
| org.apache.hive | hive-llap-common | 2.3.10 |
| org.apache.hive | hive-serde | 2.3.10 |
| org.apache.hive | Hive-tillägg | 2.3.10 |
| org.apache.hive | hive-storage-api | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.10 |
| org.apache.hive.shims | hive-shims-allmänn | 2.3.10 |
| org.apache.hive.shims | Hive-shims-schemaläggare | 2.3.10 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | murgröna | 2.5.3 |
| org.apache.logging.log4j | log4j-1.2-api | 2.24.3 |
| org.apache.logging.log4j | log4j-api | 2.24.3 |
| org.apache.logging.log4j | log4j-core | 2.24.3 |
| org.apache.logging.log4j | log4j-layout-template-json | 2.24.3 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.24.3 |
| org.apache.orc | orc-core | 2.2.0-shaded-protobuf |
| org.apache.orc | orc-format | 1.1.1-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 2.2.0-shaded-protobuf |
| org.apache.orc | orc-shims (en typ av programmeringskomponent) | 2.2.0 |
| org.apache.poi | Poi | 5.4.1 |
| org.apache.poi | poi-ooxml | 5.4.1 |
| org.apache.poi | poi-ooxml-full | 5.4.1 |
| org.apache.poi | poi-ooxml-lite | 5.4.1 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.16.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.1 |
| org.apache.xbean | xbean-asm9-shaded | 4.28 |
| org.apache.xmlbeans | xmlbeans | 5.3.0 |
| org.apache.yetus | publikens kommentarer | 0.13.0 |
| org.apache.zookeeper | djurparkskötare | 3.9.4 |
| org.apache.zookeeper | Zookeeper-jute | 3.9.4 |
| org.checkerframework | checker-qual | 3.43.0 |
| org.codehaus.janino | allmän kompilator | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | jetty-alpn-client | 10.0.26 |
| org.eclipse.jetty | jetty-client | 10.0.26 |
| org.eclipse.jetty | jetty-http | 10.0.26 |
| org.eclipse.jetty | Jetty-IO | 10.0.26 |
| org.eclipse.jetty | jetty-jndi | 10.0.26 |
| org.eclipse.jetty | Jetty Plus | 10.0.26 |
| org.eclipse.jetty | jetty-proxy | 10.0.26 |
| org.eclipse.jetty | Jetty-säkerhet | 10.0.26 |
| org.eclipse.jetty | jetty-server | 10.0.26 |
| org.eclipse.jetty | Jetty-servlet | 10.0.26 |
| org.eclipse.jetty | jetty-servlets | 10.0.26 |
| org.eclipse.jetty | Jetty-util | 10.0.26 |
| org.eclipse.jetty | Jetty-webapplikation | 10.0.26 |
| org.eclipse.jetty | jetty-xml | 10.0.26 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-lokalisator | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | osgi-resurslokaliserare | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-ompaketerad | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet | 2,41 |
| org.glassfish.jersey.containers | jersey-container-servlet-core (en Java-bibliotek för serverutveckling) | 2,41 |
| org.glassfish.jersey.core | jersey-client | 2,41 |
| org.glassfish.jersey.core | tröja-vanlig | 2,41 |
| org.glassfish.jersey.core | Jersey-server | 2,41 |
| org.glassfish.jersey.inject | jersey-hk2 | 2,41 |
| org.hibernate.validator | Hibernate Validator | 6.2.5.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging | 3.4.1.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jline | Jline | 3.27.1-jdk8 |
| org.joda | joda-convert | 1.7 |
| org.json4s | json4s-ast_2.13 | 4.0.7 |
| org.json4s | json4s-core_2.13 | 4.0.7 |
| org.json4s | json4s-jackson-core_2.13 | 4.0.7 |
| org.json4s | json4s-jackson_2.13 | 4.0.7 |
| org.json4s | json4s-scalap_2.13 | 4.0.7 |
| org.locationtech.jts | jts-core | 1.20.0 |
| org.lz4 | lz4-java | 1.8.0-databricks-1 |
| org.mlflow | mlflow-spark_2.13 | 2.22.1 |
| org.objenesis | objenesis | 3.4 |
| org.postgresql | postgresql | 42.6.1 |
| org.roaringbitmap | RoaringBitmap | 1.2.1 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.13 | 2.13.16 |
| org.scala-lang | scala-library_2.13 | 2.13.16 |
| org.scala-lang | scala-reflect_2.13 | 2.13.16 |
| org.scala-lang.modules | scala-collection-compat_2.13 | 2.11.0 |
| org.scala-lang.modules | scala-java8-compat_2.13 | 0.9.1 |
| org.scala-lang.modules | scala-parallel-collections_2.13 | 1.2.0 |
| org.scala-lang.modules | scala-parser-combinators_2.13 | 2.4.0 |
| org.scala-lang.modules | scala-xml_2.13 | 2.4.0 |
| org.scala-sbt | testgränssnitt | 1.0 |
| org.scalacheck | scalacheck_2.13 | 1.18.0 |
| org.scalactic | scalactic_2.13 | 3.2.19 |
| org.scalanlp | breeze-macros_2.13 | 2.1.0 |
| org.scalanlp | breeze_2.13 | 2.1.0 |
| org.scalatest | scalatest-kompatibel | 3.2.19 |
| org.scalatest | scalatest-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-diagrams_2.13 | 3.2.19 |
| org.scalatest | scalatest-featurespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-flatspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-freespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funsuite_2.13 | 3.2.19 |
| org.scalatest | scalatest-matchers-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-mustmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-propspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-refspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-shouldmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-wordspec_2.13 | 3.2.19 |
| org.scalatest | scalatest_2.13 | 3.2.19 |
| org.slf4j | jcl-over-slf4j | 2.0.16 |
| org.slf4j | jul-to-slf4j | 2.0.16 |
| org.slf4j | slf4j-api | 2.0.16 |
| org.slf4j | slf4j-simple | 1.7.25 |
| org.threeten | threeten-extra | 1.8.0 |
| org.tukaani | xz | 1.10 |
| org.typnivå | algebra_2.13 | 2.8.0 |
| org.typnivå | cats-kernel_2.13 | 2.8.0 |
| org.typnivå | spire-macros_2.13 | 0.18.0 |
| org.typnivå | spire-plattform_2.13 | 0.18.0 |
| org.typnivå | spire-util_2.13 | 0.18.0 |
| org.typnivå | spire_2.13 | 0.18.0 |
| org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | snakeyaml | 2.0 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| Software.Amazon.CrypTools | AmazonCorrettoCryptoProvider | 2.5.0-linux-x86_64 |
| stax | stax-api | 1.0.1 |