System.Speech.Recognition Namespace
Wichtig
Einige Informationen beziehen sich auf Vorabversionen, die vor dem Release ggf. grundlegend überarbeitet werden. Microsoft übernimmt hinsichtlich der hier bereitgestellten Informationen keine Gewährleistungen, seien sie ausdrücklich oder konkludent.
Enthält Windows Desktop-Spracherkennungstechnologietypen für die Implementierung der Spracherkennung.
Klassen
| Name | Beschreibung |
|---|---|
| AudioLevelUpdatedEventArgs |
Stellt Daten für das |
| AudioSignalProblemOccurredEventArgs |
Stellt Daten für das |
| AudioStateChangedEventArgs |
Stellt Daten für das |
| Choices |
Stellt eine Reihe von Alternativen in den Einschränkungen einer Spracherkennungsgrammatik dar. |
| DictationGrammar |
Stellt eine Spracherkennungsgrammatik dar, die für das Freie Diktieren von Text verwendet wird. |
| EmulateRecognizeCompletedEventArgs |
Stellt Daten für das |
| Grammar |
Ein Laufzeitobjekt, das auf eine Spracherkennungsgrammatik verweist, mit der eine Anwendung die Einschränkungen für die Spracherkennung definieren kann. |
| GrammarBuilder |
Stellt einen Mechanismus zum programmgesteuerten Erstellen der Einschränkungen für eine Spracherkennungsgrammatik bereit. |
| LoadGrammarCompletedEventArgs |
Stellt Daten für das |
| RecognitionEventArgs |
Stellt Informationen zu Spracherkennungsereignissen bereit. |
| RecognitionResult |
Enthält detaillierte Informationen zu Eingaben, die von Instanzen von SpeechRecognitionEngine oder SpeechRecognizer. |
| RecognizeCompletedEventArgs |
Stellt Daten für das ereignis bereit, das |
| RecognizedAudio |
Stellt die Audioeingabe dar, die einem RecognitionResult. |
| RecognizedPhrase |
Enthält detaillierte Informationen, die von der Spracherkennung generiert werden, über die erkannte Eingabe. |
| RecognizedWordUnit |
Stellt die Atomeinheit der erkannten Sprache bereit. |
| RecognizerInfo |
Stellt Informationen zu einer SpeechRecognizer Oder SpeechRecognitionEngine Instanz dar. |
| RecognizerUpdateReachedEventArgs |
Gibt Daten aus einem RecognizerUpdateReached oder einem RecognizerUpdateReached Ereignis zurück. |
| ReplacementText |
Enthält Informationen zu einer Sprachnormalisierungsprozedur, die für Erkennungsergebnisse ausgeführt wurde. |
| SemanticResultKey |
Ordnet eine Schlüsselzeichenfolge SemanticResultValue werten zu, um Objekte zu definieren SemanticValue . |
| SemanticResultValue |
Stellt einen semantischen Wert dar und ordnet den Wert optional einer Komponente einer Spracherkennungsgrammatik zu. |
| SemanticValue |
Stellt die semantische Organisation eines erkannten Ausdrucks dar. |
| SpeechDetectedEventArgs |
Gibt Daten von SpeechDetected oder SpeechDetected Ereignissen zurück. |
| SpeechHypothesizedEventArgs |
Gibt Benachrichtigungen von SpeechHypothesized oder SpeechHypothesized Ereignissen zurück. Diese Klasse unterstützt die .NET Framework-Infrastruktur und soll nicht direkt aus Dem Anwendungscode verwendet werden. |
| SpeechRecognitionEngine |
Bietet die Möglichkeit, auf ein prozessinternes Spracherkennungsmodul zuzugreifen und diese zu verwalten. |
| SpeechRecognitionRejectedEventArgs |
Stellt Informationen für die SpeechRecognitionRejected und SpeechRecognitionRejected Ereignisse bereit. |
| SpeechRecognizedEventArgs |
Stellt Informationen für die SpeechRecognizedEreignisse SpeechRecognizedund Ereignisse bereit SpeechRecognized . |
| SpeechRecognizer |
Bietet Zugriff auf den freigegebenen Spracherkennungsdienst, der auf dem Windows Desktop verfügbar ist. |
| SpeechUI |
Stellt Text- und Statusinformationen zu Erkennungsvorgängen bereit, die auf der Benutzeroberfläche der Sprachplattform angezeigt werden sollen. |
| StateChangedEventArgs |
Gibt Daten aus dem StateChanged Ereignis zurück. |
Enumerationen
| Name | Beschreibung |
|---|---|
| AudioSignalProblem |
Enthält eine Liste der möglichen Probleme im Audiosignal, das in ein Spracherkennungsmodul eingeht. |
| AudioState |
Enthält eine Liste möglicher Zustände für die Audioeingabe in ein Spracherkennungsmodul. |
| DisplayAttributes |
Listet die Optionen auf, mit denen das SpeechRecognitionEngine-Objekt Leerzeichen für die Anzeige eines Worts oder Satzzeichens angeben kann. |
| RecognizeMode |
Listet Werte des Erkennungsmodus auf. |
| RecognizerState |
Listet Werte des Zustands der Erkennung auf. |
| SubsetMatchingMode |
Listet Werte des Abgleichsmodus für Teilmenge auf. |
Hinweise
Die Windows Desktop Speech Technology-Software bietet eine grundlegende Spracherkennungsinfrastruktur, die akustische Signale digitalisiert und Wörter und Sprachelemente aus der Audioeingabe wiederherstellt.
Anwendungen verwenden den System.Speech.Recognition Namespace, um auf diese grundlegende Spracherkennungstechnologie zuzugreifen und sie zu erweitern, indem Algorithmen zum Identifizieren und Handeln auf bestimmte Ausdrücke oder Wortmuster definiert und das Laufzeitverhalten dieser Sprachinfrastruktur verwaltet wird.
Erstellen von Grammatiken
Sie erstellen Grammatiken, die aus einer Reihe von Regeln oder Einschränkungen bestehen, um Wörter und Ausdrücke zu definieren, die Ihre Anwendung als aussagekräftige Eingabe erkennt. Mithilfe eines Konstruktors für die Grammar Klasse können Sie zur Laufzeit ein Grammatikobjekt aus GrammarBuilder oder SrgsDocument instanzen oder aus einer Datei, einer Zeichenfolge oder einem Datenstrom erstellen, der eine Definition einer Grammatik enthält.
Mithilfe der Klassen und Choices der GrammarBuilder Klassen können Sie programmgesteuert Grammatiken mit geringer bis mittlerer Komplexität erstellen, die verwendet werden können, um die Erkennung für viele gängige Szenarien durchzuführen. Um Grammatiken programmgesteuert zu erstellen, die der Spracherkennungsgrammatikspezifikation 1.0 (SRGS) entsprechen und die Erstellungsflexibilität von SRGS nutzen möchten, verwenden Sie die Typen des System.Speech.Recognition.SrgsGrammar Namespaces. Sie können auch SRGS-Grammatiken im XML-Format mit einem beliebigen Text-Editor erstellen und das Ergebnis zum Erstellen GrammarBuilder, SrgsDocument Oder Grammar Objekte verwenden.
Darüber hinaus bietet die DictationGrammar Klasse eine spezielle Grammatik zur Unterstützung eines herkömmlichen Diktiermodells.
Verwalten von Spracherkennungsmodulen
Instanzen von SpeechRecognizer und SpeechRecognitionEngine bereitgestellten Grammar Objekten bieten den primären Zugriff auf die Spracherkennungsmodule der Windows Desktop Speech Technology.
Sie können die SpeechRecognizer Klasse verwenden, um Clientanwendungen zu erstellen, die die von Windows bereitgestellte Spracherkennungstechnologie verwenden, die Sie über die Systemsteuerung konfigurieren können. Solche Anwendungen akzeptieren Eingaben über den Standard-Audioeingabemechanismus eines Computers.
Um mehr Kontrolle über die Konfiguration und den Typ des Erkennungsmoduls zu erhalten, erstellen Sie eine Anwendung, SpeechRecognitionEnginedie in einem Prozess ausgeführt wird. Mithilfe der SpeechRecognitionEngine Klasse können Sie auch Audioeingaben von Geräten, Dateien oder Datenströmen dynamisch auswählen.
Reagieren auf Ereignisse
SpeechRecognizer und SpeechRecognitionEngine Objekte generieren Ereignisse als Reaktion auf Audioeingaben für das Spracherkennungsmodul. Die AudioLevelUpdatedEreignisse AudioSignalProblemOccurredund AudioStateChanged Ereignisse werden als Reaktion auf Änderungen des eingehenden Signals ausgelöst. Das SpeechDetected Ereignis wird ausgelöst, wenn das Spracherkennungsmodul eingehende Audiodaten als Sprache identifiziert. Das Spracherkennungsmodul löst das SpeechRecognized Ereignis aus, wenn es mit einer der geladenen Grammatiken übereinstimmt, und löst das SpeechRecognitionRejected Ereignis aus, wenn die Spracheingabe keiner der geladenen Grammatiken entspricht.
Andere Ereignistypen umfassen das LoadGrammarCompleted Ereignis, das ein Spracherkennungsmodul auslöst, wenn es eine Grammatik geladen hat. Die StateChanged Klasse ist exklusiv für die SpeechRecognizer Klasse, die das Ereignis auslöst, wenn sich der Status der Windows-Spracherkennung ändert.
Sie können sich registrieren, um für Ereignisse benachrichtigt zu werden, die vom Spracherkennungsmodul ausgelöst werden, und Handler mithilfe der Klassen erstellen, die EventsArgs jedem dieser Ereignisse zugeordnet sind, um das Verhalten Ihrer Anwendung zu programmieren, wenn ein Ereignis ausgelöst wird.