Foundry-Modelle von Partnern und der Community

Microsoft Foundry Models im Modellkatalog bestehen aus zwei Hauptkategorien, nämlich Foundry Models, die direkt von Azure und Foundry Models von Partnern und Community verkauft werden. In diesem Artikel wird eine Auswahl von Foundry Models von Partnern und Communitys sowie deren Funktionen, Bereitstellungstypen und Regionen der Verfügbarkeit aufgeführt, mit Ausnahme veralteter und eingestellter Modelle. Die meisten Foundry-Modellanbieter sind vertrauenswürdige Drittanbieterorganisationen, Partner, Forschungslabore und Communitymitwirkende.

Wichtig

Modelle von Partnern und Communitys, die nicht direkt von Azure verkauft werden, sind Nicht-Microsoft Produkte unter den Produktbedingungen.

Eine Liste der direkt von Azure verkauften Foundry Models finden Sie unter Foundry Models, die direkt von Azure verkauft werden, und eine Liste der Foundry Models, die vom Foundry Agent Service unterstützt werden, finden Sie unter Models supported by Agent Service.

Foundry Models unterstützen mehrere Bereitstellungstypen für eine Foundry-Ressource. Einige Modelle im Modellkatalog erfordern ein hubbasiertes Projekt, das von einem Foundry-Hub für die Bereitstellung gehostet wird. Wenn Sie diese Modelle im Katalog auswählen, werden sie in der Klassischen Portalumgebung (Foundry) geöffnet.

Voraussetzungen

  • Ein Azure-Abonnement. Wenn Sie kein Konto haben, erstellen Sie ein kostenloses Konto.

    Wichtig

    Die folgenden Azure Abonnements können nicht zum Kauf von Software as a Service (SaaS)-Angeboten in Marketplace verwendet werden: Student, Visual Studio Enterprise oder Free Credit. Weitere Informationen zum Kauf von SaaS-Angeboten finden Sie unter SaaS-Einkaufserfahrung.

  • Ein Microsoft Foundry-Projekt.

Berechtigungen, die zum Abonnieren von Modellen von Partnern und der Community erforderlich sind

Foundry-Modelle von Partnern und der Community, die für die Bereitstellung verfügbar sind (z. B. Cohere-Modelle), erfordern den Azure Marketplace. Modellanbieter definieren die Lizenzbedingungen und legen den Preis für die Verwendung ihrer Modelle mithilfe von Azure Marketplace fest.

Stellen Sie beim Bereitstellen von Drittanbietermodellen sicher, dass Sie über die folgenden Berechtigungen in Ihrem Konto verfügen:

  • Im Azure-Abonnement:
    • Microsoft.MarketplaceOrdering/agreements/offers/plans/read
    • Microsoft.MarketplaceOrdering/agreements/offers/plans/sign/action
    • Microsoft.MarketplaceOrdering/offerTypes/publishers/offers/plans/agreements/read
    • Microsoft.Marketplace/offerTypes/publishers/offers/plans/agreements/read
    • Microsoft.SaaS/register/action
  • Auf der Ressourcengruppe – zur Erstellung und Nutzung der SaaS-Ressource:
    • Microsoft.SaaS/resources/read
    • Microsoft.SaaS/resources/write

Die Owner und Contributor integrierte Rollen im Azure-Abonnement enthalten diese Berechtigungen. Wenn Sie nicht über die erforderlichen Berechtigungen verfügen, bitten Sie Ihren Abonnementadministrator, Ihnen die Rolle " Mitwirkender " zuzuweisen, oder erstellen Sie eine benutzerdefinierte Rolle , die die aufgeführten Aktionen enthält.

Um Ihre Berechtigungen zu überprüfen, wechseln Sie zum Portal Azure, öffnen Sie Ihr Abonnement, wählen Sie Access Control (IAM)>Check access aus, und überprüfen Sie Ihre zugewiesenen Rollen.

Tipp

Microsoft.SaaS/register/action ist eine einmalige Registrierung des SaaS-Ressourcenanbieters für das Abonnement. Nach der Registrierung muss sie für jede Bereitstellung nicht wiederholt werden.

Verfügbarkeit von Ländern/Regionen

Sie können auf Modelle von Partnern und Communitys mit abrechnungsbasierter Zahlung nur zugreifen, wenn Ihr Azure Abonnement zu einem Abrechnungskonto in einem Land/einer Region gehört, in dem das Modellangebot verfügbar ist. Die Verfügbarkeit variiert je nach Modellanbieter und Modell-SKU. Weitere Informationen finden Sie unter Regionsverfügbarkeit für Modelle.

Anthropic

Das Leitprodukt von Anthropic ist Claude, ein bahnbrechendes KI-Modell, dem führende Unternehmen und Millionen von Nutzern weltweit für komplexe Aufgaben wie Programmierung, Agenten-Software, Finanzanalyse, Forschung und Büroarbeit vertrauen. Claude liefert außergewöhnliche Leistung und hält gleichzeitig hohe Sicherheitsstandards.

Informationen zur Arbeit mit Claude-Modellen in Foundry finden Sie unter Claude-Modelle in Microsoft Foundry bereitstellen und verwenden.

Hinweis

Claude Mythos Preview ist nur als Gated Research Preview verfügbar. Der Zugriff auf das Modell wird ausschließlich nach ermessen Anthropic gewährt und wird für defensive Cybersicherheitsanwendungsfälle priorisiert. Zur verantwortungsvollen Verwendung finden Sie Leitlinien in der Claude Mythos Preview Systemkarte.

Support für Abonnementtyp und Region

Um Claude Modelle in Microsoft Foundry zu verwenden, müssen Sie über ein kostenpflichtiges Azure-Abonnement mit einem Abrechnungskonto in einem Land oder einer Region verfügen, in dem Anthropic die Modelle zum Kauf anbietet. Eine Liste allgemeiner Abonnementfehler finden Sie unter Allgemeine Fehlermeldungen und Lösungen. Die folgenden Abonnementtypen werden derzeit nicht unterstützt:

  • Unternehmenskonten in Südkorea
  • Cloud Solution Provider Abonnements
  • Azure Abonnements ohne aktive Abrechnungsmethode (z. B. Studenten-, kostenlose Test- oder Startguthabenkonten)
  • Gesponserte Abonnements, die nur Azure Credits verwenden. Hinweis: Wenn Sie über ein Konto mit einer Kreditkarte verfügen, wird die Kreditkarte anstelle von "Azure Credits" belastet.

Eine Liste der unterstützten Regionen finden Sie unter unterstützten geografischen Standorten. Beachten Sie, dass die "Richtlinie für unterstützte Regionen" von Anthropic möglicherweise für die Verfügbarkeit in Ihrer Region gilt. Überprüfen Sie unterstützte Regionen für Details.

Modell Typ Funktionen
claude-mythos-preview
Gated Research Preview
Nachrichten - Eingabe: Text, Bild und Code
- Ausgabe: Text, Bild und Code (maximal 128.000 Token)
- Kontextfenster: 1.000.000
- Sprachen:en, , fr, ar, zhja, ko, , , , eshi
- Toolaufrufe: Ja (Dateisuche und Codeausführung)
- Antwortformate: Text in verschiedenen Formaten (z. B. Prose, Listen, Markdown-Tabellen, JSON, HTML, Code in verschiedenen Programmiersprachen)
- Schlüsselparameter:top_p muss mindestens 0,99 sein. Anforderungen mit top_p unter diesem Schwellenwert werden mit einem Fehler von 400 abgelehnt. Wenn top_p weggelassen wird, wird der Standardwert (0,99) verwendet.
claude-opus-4-7
Vorschau
Nachrichten - Eingabe: Text, Bild und Code
- Ausgabe: Text, Bild und Code (maximal 128.000 Token)
- Kontextfenster: 1.000.000
- Sprachen:en, , fr, ar, zhja, ko, , , , eshi
- Toolaufrufe: Ja (Dateisuche und Codeausführung)
- Antwortformate: Text in verschiedenen Formaten (z. B. Prose, Listen, Markdown-Tabellen, JSON, HTML, Code in verschiedenen Programmiersprachen)
- Schlüsselparameter:
top_k, temperatureund thinking={"type":"enabled"} werden nicht unterstützt.
top_p muss 0,99 sein. Wenn sie weggelassen wird, wird der Standardwert (0,99) verwendet.
claude-opus-4-6
Vorschau
Nachrichten - Eingabe: Text, Bild und Code
- Ausgabe: Text, Bild und Code (maximal 128.000 Token)
- Kontextfenster: 1.000.000
- Sprachen:en, , fr, ar, zhja, ko, , , , eshi
- Toolaufrufe: Ja (Dateisuche und Codeausführung)
- Antwortformate: Text in verschiedenen Formaten (z. B. Prose, Listen, Markdown-Tabellen, JSON, HTML, Code in verschiedenen Programmiersprachen)
claude-opus-4-5
Vorschau
Nachrichten - Eingabe: Text, Bild und Code
- Ausgabe: Text (maximal 64.000 Token)
- Kontextfenster: 200.000
- Sprachen:en, , fr, ar, zhja, ko, , , , eshi
- Toolaufrufe: Ja (Dateisuche und Codeausführung)
- Antwortformate: Text in verschiedenen Formaten (z. B. Prose, Listen, Markdown-Tabellen, JSON, HTML, Code in verschiedenen Programmiersprachen)
claude-opus-4-1
Vorschau
Nachrichten - Eingabe: Text, Bild und Code
- Ausgabe: Text (maximal 32.000 Token)
- Kontextfenster: 200.000
- Sprachen:en, , fr, ar, zhja, ko, , , , eshi
- Toolaufrufe: Ja (Dateisuche und Codeausführung)
- Antwortformate: Text in verschiedenen Formaten (z. B. Prose, Listen, Markdown-Tabellen, JSON, HTML, Code in verschiedenen Programmiersprachen)
claude-sonnet-4-6
Vorschau
Nachrichten - Eingabe: Text, Bild und Code
- Ausgabe: Text, Bild und Code (maximal 128.000 Token)
- Kontextfenster: 1.000.000
- Sprachen:en, , fr, ar, zhja, ko, , , , eshi
- Toolaufrufe: Ja (Dateisuche und Codeausführung)
- Antwortformate: Text in verschiedenen Formaten (z. B. Prose, Listen, Markdown-Tabellen, JSON, HTML, Code in verschiedenen Programmiersprachen)
claude-sonnet-4-5
Vorschau
Nachrichten - Eingabe: Text, Bild und Code
- Ausgabe: Text (maximal 64.000 Token)
- Kontextfenster: 200.000
- Sprachen:en, , fr, ar, zhja, ko, , , , eshi
- Toolaufrufe: Ja (Dateisuche und Codeausführung)
- Antwortformate: Text in verschiedenen Formaten (z. B. Prose, Listen, Markdown-Tabellen, JSON, HTML, Code in verschiedenen Programmiersprachen)
claude-haiku-4-5
Vorschau
Nachrichten - Eingabe: Text und Bild
- Ausgabe: Text (maximal 64.000 Token)
- Kontextfenster: 200.000
- Sprachen:en, , fr, ar, zhja, ko, , , , eshi
- Toolaufrufe: Ja (Dateisuche und Codeausführung)
- Antwortformate: Text in verschiedenen Formaten (z. B. Prose, Listen, Markdown-Tabellen, JSON, HTML, Code in verschiedenen Programmiersprachen)

Cohere

Die Cohere-Modellfamilie umfasst verschiedene Modelle, die für unterschiedliche Anwendungsfälle optimiert sind, einschließlich Chat-Fertigstellungen und Einbettungen. Cohere-Modelle sind für verschiedene Anwendungsfälle optimiert, die Gründe, Zusammenfassungen und Fragebeantwortungen umfassen.

Informationen zum Bereitstellen von Cohere-Modellen in Foundry finden Sie unter Deploy Microsoft Foundry Models im Foundry-Portal.

Modell Typ Funktionen
Cohere-command-r-plus-08-2024 Chat-Vervollständigung - Eingabe: Text (131.072 Token)
- Ausgabe: Text (4.096 Token)
- Sprachen:en, , fr, es, itde, pt-br, ja, ko, , , und zh-cnar
- Toolaufrufe: Ja
- Antwortformate: Text, JSON
Cohere-command-r-08-2024 Chat-Vervollständigung - Eingabe: Text (131.072 Token)
- Ausgabe: Text (4.096 Token)
- Sprachen:en, , fr, es, itde, pt-br, ja, ko, , , und zh-cnar
- Toolaufrufe: Ja
- Antwortformate: Text, JSON
Cohere-embed-v3-english Einbettungen - Eingabe: Text und Bilder (512 Token)
- Ausgabe: Vektor (1024 dim.)
- Sprachen:en
Cohere-embed-v3-multilingual Einbettungen - Eingabe: Text (512 Token)
- Ausgabe: Vektor (1024 dim.)
- Sprachen:en, , fr, es, itde, pt-br, ja, ko, , , und zh-cnar

Meta

Meta Llama Modelle und Tools sind eine Sammlung vorgetrainierter und feingetunter generativer KI-Text- und Bildschlussfolgerungsmodelle. Metamodelle reichen im Umfang, um Folgendes einzuschließen:

  • Kleine Sprachmodelle (SLMs) wie 1B und 3B Basismodell und Anleitungsmodell für die Inferenz auf Geräten und an der Edge.
  • Mittelgroße große Sprachmodelle (LLMs) wie 7B-, 8B- und 70B-Basis- und Anweisungsmodelle
  • Hochleistungsmodelle wie Meta Llama 3.1-405B Instruct für synthetische Datengenerierung und Destillationsfälle.

Informationen zum Bereitstellen von Meta Llama-Modellen in Foundry finden Sie unter Microsoft Foundry-Modelle im Foundry-Portal bereitstellen.

Modell Typ Funktionen
Llama-3.2-11B-Vision-Instruct Chat-Vervollständigung - Eingabe: Text und Bild (128.000 Token)
- Ausgabe: Text (8.192 Token)
- Sprachen:en
- Toolaufrufe: Nein
- Antwortformate: Text
Llama-3.2-90B-Vision-Instruct Chat-Vervollständigung - Eingabe: Text und Bild (128.000 Token)
- Ausgabe: Text (8.192 Token)
- Sprachen:en
- Toolaufrufe: Nein
- Antwortformate: Text
Meta-Llama-3.1-405B-Instruct Chat-Vervollständigung - Eingabe: Text (131.072 Token)
- Ausgabe: Text (8.192 Token)
- Sprachen:en, , de, fr, itpt, hi, , und esth
- Toolaufrufe: Nein
- Antwortformate: Text
Meta-Llama-3.1-8B-Instruct Chat-Vervollständigung - Eingabe: Text (131.072 Token)
- Ausgabe: Text (8.192 Token)
- Sprachen:en, , de, fr, itpt, hi, , und esth
- Toolaufrufe: Nein
- Antwortformate: Text
Llama-4-Scout-17B-16E-Instruct Chat-Vervollständigung - Eingabe: Text und Bild (128.000 Token)
- Ausgabe: Text (8.192 Token)
- Sprachen:en
- Toolaufrufe: Nein
- Antwortformate: Text

Microsoft

Microsoft Modelle umfassen verschiedene Modellgruppen wie MAI-Modelle, Phi-Modelle, KI-Modelle im Gesundheitswesen und vieles mehr.

Informationen zum Bereitstellen von Microsoft Modellen in Foundry finden Sie unter Deploy Microsoft Foundry Models im Foundry-Portal.

Modell Typ Funktionen
Phi-4-mini-instruct Chat-Vervollständigung - Eingabe: Text (131.072 Token)
- Ausgabe: Text (4.096 Token)
- Sprachen:ar, zh, cs, da, nl, en, fi, fr, de, he, hu, it, ja, ko, und no, pl, pt, ru, es, sv, th, tr, und uk
- Toolaufrufe: Nein
- Antwortformate: Text
Phi-4-multimodal-instruct Chat-Vervollständigung - Eingabe: Text, Bilder und Audio (131.072 Token)
- Ausgabe: Text (4.096 Token)
- Sprachen:ar, zh, cs, da, nl, en, fi, fr, de, he, hu, it, ja, ko, und no, pl, pt, ru, es, sv, th, tr, und uk
- Toolaufrufe: Nein
- Antwortformate: Text
Phi-4 Chat-Vervollständigung - Eingabe: Text (16.384 Token)
- Ausgabe: Text (16.384 Token)
- Sprachen:en, ar, bn, cs, da, de, el, es, fa, fi, fr, gu, ha, he, hi, hu, id, it, ja, jv, kn, ko, ml, mr, nl, no, or, pa, pl, ps, pt, ro, ru, sv, sw, ta, te, th, tl, tr, uk, ur, vi, yo, und zh
- Toolaufrufe: Nein
- Antwortformate: Text
Phi-4-reasoning Chat-Vervollständigung mit Schlussfolgerungsinhalten - Eingabe: Text (32.768 Token)
- Ausgabe: Text (32.768 Token)
- Sprachen:en
- Toolaufrufe: Nein
- Antwortformate: Text
Phi-4-mini-reasoning Chat-Vervollständigung mit Schlussfolgerungsinhalten - Eingabe: Text (128.000 Token)
- Ausgabe: Text (128.000 Token)
- Sprachen:en
- Toolaufrufe: Nein
- Antwortformate: Text

Mistral AI

Mistral AI bietet Modelle für die Codegenerierung, allgemeine Chats und multimodale Aufgaben, einschließlich Codestral, Ministral, Mistral Small und Mistral Medium.

Informationen zum Bereitstellen von Mistral AI-Modellen in Foundry finden Sie unter Deploy Microsoft Foundry Models im Foundry-Portal.

Modell Typ Funktionen
Codestral-2501 Chat-Vervollständigung - Eingabe: Text (262.144 Token)
- Ausgabe: Text (4.096 Token)
- Sprachen: en
- Toolaufrufe: Nein
- Antwortformate: Text
Ministral-3B Chat-Vervollständigung - Eingabe: Text (131.072 Token)
- Ausgabe: Text (4.096 Token)
- Sprachen: fr, de, es, it und en
- Toolaufrufe: Ja
- Antwortformate: Text, JSON
Mistral-small-2503 Chat-Vervollständigung - Eingabe: Text (32.768 Token)
- Ausgabe: Text (4.096 Token)
- Sprachen: fr, de, es, it und en
- Toolaufrufe: Ja
- Antwortformate: Text, JSON
Mistral-medium-2505 Chat-Vervollständigung - Eingabe: Text (128.000 Token), Bild
- Ausgabe: Text (128.000 Token)
- Toolaufrufe: Nein
- Antwortformate: Text, JSON
mistralai-Mistral-7B-Instruct-v01 1 Chat-Vervollständigung - Eingabe: Text
- Ausgabe: Text
- Sprachen: en
- Antwortformate: Text
mistralai-Mistral-7B-Instruct-v0-2 1 Chat-Vervollständigung - Eingabe: Text
- Ausgabe: Text
- Sprachen: en
- Antwortformate: Text
mistralai-Mixtral-8x7B-Instruct-v01 1 Chat-Vervollständigung - Eingabe: Text
- Ausgabe: Text
- Sprachen: en
- Antwortformate: Text
mistralai-Mixtral-8x22B-Instruct-v0-1 1 Chat-Vervollständigung - Eingabe: Text (64.000 Token)
- Ausgabe: Text (4.096 Token)
- Sprachen: fr, it, de, es, en
- Antwortformate: Text

1 Diese Modelle erfordern ein hubbasiertes Projekt für die Bereitstellung. Wenn Sie sie im Modellkatalog auswählen, wird sie in der Klassischen Portaloberfläche (Foundry) geöffnet.

Nixtla

Nixtlas TimeGEN-1 ist ein generatives vortrainiertes Prognose- und Anomalieerkennungsmodell für Zeitreihendaten. TimeGEN-1 erzeugt genaue Prognosen für neue Zeitreihen ohne Training, wobei nur historische Werte und exogene Kovariate als Eingaben verwendet werden.

Informationen zum Bereitstellen von TimeGEN-1 in Foundry finden Sie unter Deploy Microsoft Foundry Models im Foundry-Portal.

Zum Durchführen der Ableitung erfordert TimeGEN-1, dass Sie die benutzerdefinierte Ableitungs-API von Nixtla verwenden.

Modell Typ Funktionen Ableitungs-API
TimeGEN-1 1 Prognose - Eingabe: Zeitreihendaten als JSON oder Datenrahmen (mit Unterstützung für multivariate Eingaben)
- Ausgabe: Zeitreihendaten als JSON
- Toolaufrufe: Nein
- Antwortformate: JSON
Prognoseclient für die Interaktion mit der Nixtla-API

1 Dieses Modell erfordert ein hubbasiertes Projekt für die Bereitstellung. Wenn Sie das Modell im Modellkatalog auswählen, wird es in der Klassischen Portaloberfläche (Foundry) geöffnet.

Weitere Informationen zu den Preisen für Nixtla-Modelle finden Sie unter Nixtla.

Siehe Nixtla Modelle im Foundry-Portal.

NTT-Daten

tsuzumi ist ein autoregressiver sprachoptimierter Transformator. Die angepassten Versionen verwenden die überwachte Feinabstimmung (SFT). tsuzumi verarbeitet sowohl Japanisch als auch Englisch mit hoher Effizienz.

Informationen zur Bereitstellung von tsuzumi-7b in Foundry finden Sie unter Deploy Microsoft Foundry Models im Foundry-Portal.

Modell Typ Funktionen
tsuzumi-7b 1 Chat-Vervollständigung - Eingabe: Text (8.192 Token)
- Ausgabe: Text (8.192 Token)
- Sprachen:en Und jp
- Toolaufrufe: Nein
- Antwortformate: Text

1 Dieses Modell erfordert ein hubbasiertes Projekt für die Bereitstellung. Wenn Sie das Modell im Modellkatalog auswählen, wird es in der Klassischen Portaloberfläche (Foundry) geöffnet.

Siehe NTT-Datenmodelle im Foundry-Portal.

Stabilitäts-KI

Die Stabilitäts-KI-Sammlung von Bildgenerierungsmodellen umfasst Stable Image Core, Stable Image Ultra und Stable Diffusion 3.5 Large. Stabile Diffusion 3.5 Large akzeptiert sowohl Bild- als auch Texteingaben.

Informationen zur Bereitstellung von Stabilitäts-KI-Modellen in Foundry finden Sie unter Deploy Microsoft Foundry Models im Foundry-Portal.

Modell Typ Funktionen
Stable Diffusion 3.5 Large Bildgenerierung - Eingabe: Text und Bild (1.000 Token und 1 Bild)
- Ausgabe: Ein Bild
- Toolaufrufe: Nein
- Antwortformate: Bild (PNG und JPG)
Stable Image Core Bildgenerierung - Eingabe: Text (1.000 Token)
- Ausgabe: Ein Bild
- Toolaufrufe: Nein
- Antwortformate: Bild (PNG und JPG)
Stable Image Ultra Bildgenerierung - Eingabe: Text (1.000 Token)
- Ausgabe: Ein Bild
- Toolaufrufe: Nein
- Antwortformate: Bild (PNG und JPG)

Problembehandlung

Verwenden Sie das folgende Handbuch zur Problembehandlung, um Fehler beim Bereitstellen von Drittanbietermodellen in Foundry Models zu finden und zu beheben:

Fehler Beschreibung
Angebot nicht in Ihrem Land/Ihrer Region verfügbar Der Modellanbieter hat die spezifische Modell-SKU in dem Land/der Region, in dem Sie Ihr Abonnement registriert haben, nicht zur Verfügung gestellt. Jeder Modellanbieter entscheidet, welche Länder/Regionen verfügbar sind, und die Verfügbarkeit kann je nach Modell-SKU variieren. Stellen Sie das Modell in einem Abonnement mit Abrechnung in einem unterstützten Land/einer unterstützten Region bereit. Siehe Regionsverfügbarkeit für Modelle.
Fehler bei der Überprüfung der Marketplace-Kaufberechtigung Der Modellanbieter hat die spezifische Modell-SKU in Ihrem Land/Ihrer Region nicht zur Verfügung gestellt, oder das Modell ist nicht in der Region verfügbar, in der Sie die Foundry-Ressource bereitgestellt haben. Siehe Regionsverfügbarkeit für Modelle.
Es ist nicht möglich, eine Modellbereitstellung zu erstellen. Azure Marketplace hat die Anforderung zum Erstellen eines Modellabonnements abgelehnt. Diese Ablehnung kann aus mehreren Gründen auftreten, einschließlich des Abonnierens des Modellangebots zu oft oder von mehreren Abonnements gleichzeitig. Wenden Sie sich an den Support , und schließen Sie Ihre Abonnement-ID ein.
CSP-Abonnement nicht unterstützt Cloud Solution Provider (CSP)-Abonnements können keine Drittanbietermodellangebote erwerben. Erwägen Sie die Verwendung von Modellen, die als Erstanbieter-Verbrauchsdienst angeboten werden.