NGramTokenizer interface
Tokenisiert die Eingabe in n Gramm der angegebenen Größe(n). Dieser Tokenizer wird mit Apache Lucene implementiert.
- Extends
Eigenschaften
| max |
Die maximale n-Gramm-Länge. Der Standardwert ist 2. Maximal 300. |
| min |
Die minimale n-Gramm-Länge. Der Standardwert ist 1. Maximal 300. Muss kleiner als der Wert von maxGram sein. |
| odatatype | Ein URI-Fragment, das den Typ des Tokenizers angibt. |
| token |
Zeichenklassen, die in den Token beibehalten werden sollen. |
Geerbte Eigenschaften
| name | Der Name des Tokenizers. Sie darf nur Buchstaben, Ziffern, Leerzeichen, Gedankenstriche oder Unterstriche enthalten, kann nur mit alphanumerischen Zeichen beginnen und enden und ist auf 128 Zeichen beschränkt. |
Details zur Eigenschaft
maxGram
Die maximale n-Gramm-Länge. Der Standardwert ist 2. Maximal 300.
maxGram?: number
Eigenschaftswert
number
minGram
Die minimale n-Gramm-Länge. Der Standardwert ist 1. Maximal 300. Muss kleiner als der Wert von maxGram sein.
minGram?: number
Eigenschaftswert
number
odatatype
Ein URI-Fragment, das den Typ des Tokenizers angibt.
odatatype: "#Microsoft.Azure.Search.NGramTokenizer"
Eigenschaftswert
"#Microsoft.Azure.Search.NGramTokenizer"
tokenChars
Zeichenklassen, die in den Token beibehalten werden sollen.
tokenChars?: TokenCharacterKind[]
Eigenschaftswert
Geerbte Eigenschaftsdetails
name
Der Name des Tokenizers. Sie darf nur Buchstaben, Ziffern, Leerzeichen, Gedankenstriche oder Unterstriche enthalten, kann nur mit alphanumerischen Zeichen beginnen und enden und ist auf 128 Zeichen beschränkt.
name: string
Eigenschaftswert
string
Von LexicalTokenizer.namegeerbt