NGramTokenizer interface

Tokenisiert die Eingabe in n Gramm der angegebenen Größe(n). Dieser Tokenizer wird mit Apache Lucene implementiert.

Extends

Eigenschaften

maxGram

Die maximale n-Gramm-Länge. Der Standardwert ist 2. Maximal 300.

minGram

Die minimale n-Gramm-Länge. Der Standardwert ist 1. Maximal 300. Muss kleiner als der Wert von maxGram sein.

odatatype

Ein URI-Fragment, das den Typ des Tokenizers angibt.

tokenChars

Zeichenklassen, die in den Token beibehalten werden sollen.

Geerbte Eigenschaften

name

Der Name des Tokenizers. Sie darf nur Buchstaben, Ziffern, Leerzeichen, Gedankenstriche oder Unterstriche enthalten, kann nur mit alphanumerischen Zeichen beginnen und enden und ist auf 128 Zeichen beschränkt.

Details zur Eigenschaft

maxGram

Die maximale n-Gramm-Länge. Der Standardwert ist 2. Maximal 300.

maxGram?: number

Eigenschaftswert

number

minGram

Die minimale n-Gramm-Länge. Der Standardwert ist 1. Maximal 300. Muss kleiner als der Wert von maxGram sein.

minGram?: number

Eigenschaftswert

number

odatatype

Ein URI-Fragment, das den Typ des Tokenizers angibt.

odatatype: "#Microsoft.Azure.Search.NGramTokenizer"

Eigenschaftswert

"#Microsoft.Azure.Search.NGramTokenizer"

tokenChars

Zeichenklassen, die in den Token beibehalten werden sollen.

tokenChars?: TokenCharacterKind[]

Eigenschaftswert

Geerbte Eigenschaftsdetails

name

Der Name des Tokenizers. Sie darf nur Buchstaben, Ziffern, Leerzeichen, Gedankenstriche oder Unterstriche enthalten, kann nur mit alphanumerischen Zeichen beginnen und enden und ist auf 128 Zeichen beschränkt.

name: string

Eigenschaftswert

string

Von LexicalTokenizer.namegeerbt