重要
Data Collection Rules (DCR) で Logstash 出力プラグインを使用したデータ インジェストは、現在パブリック プレビュー段階です。 この機能は、サービス レベルアグリーメントなしで提供されます。 詳細については、「Microsoft Azure プレビューの追加利用規約」を参照してください。
Microsoft Sentinelの Logstash 出力プラグインでは、データ収集規則 (DCR) を使用したパイプライン変換と高度な構成がサポートされています。 プラグインは、外部データ ソースから Log Analytics または Microsoft Sentinelのカスタム テーブルまたは標準テーブルにログを転送します。
この記事では、出力スキーマを完全に制御して、Log Analytics または DCR を使用してMicrosoft Sentinelにデータをストリーミングするように Logstash プラグインを設定する方法について説明します。
プラグインを使用すると、次のことができます。
- 列名と型の構成を制御します。
- フィルター処理やエンリッチメントなどのインジェスト時間変換を実行します。
- カスタム ログをカスタム テーブルに取り込むか、Syslog 入力ストリームを Log Analytics Syslog テーブルに取り込みます。
標準テーブルへのインジェストは、 カスタム ログ インジェストでサポートされている標準テーブルにのみ制限されます。
Logstash データ収集エンジンの操作の詳細については、「 Logstash の概要」を参照してください。
アーキテクチャの概要
Logstash エンジンは、次の 3 つのコンポーネントで構成されます。
- 入力プラグイン: さまざまなソースからのデータのカスタマイズされたコレクション。
- フィルター プラグイン: 指定した条件に従ったデータの操作と正規化。
- 出力プラグイン: 収集および処理されたデータをさまざまな宛先にカスタマイズして送信します。
注:
- Microsoft では、ここで説明するMicrosoft Sentinel提供される Logstash 出力プラグインのみがサポートされています。 現在のプラグインは 、microsoft-sentinel-log-analytics-logstash-output-plugin、v2.1.0 です。 出力プラグインに関する問題の サポート チケットを開 くことができます。
- Microsoft では、Microsoft Sentinel用のサードパーティ製の Logstash 出力プラグイン、またはその他の Logstash プラグインまたは任意の種類のコンポーネントはサポートしていません。
- プラグインの Logstash バージョンサポートの前提条件を参照してください。
プラグインは、ログ インジェスト API を使用して JSON 形式のデータを Log Analytics ワークスペースに送信します。 データは、カスタム ログまたは標準テーブルに取り込まれます。
- ログ インジェスト API の詳細については、こちらをご覧ください。
Logstash でMicrosoft Sentinel出力プラグインをデプロイする
プラグインを設定するには、次の手順に従います。
- 前提条件を確認する
- プラグインをインストールする
- サンプル ファイルを作成する
- 必要な DCR 関連リソースを作成する
- Logstash 構成ファイルを構成する
- Logstash を再起動する
- Microsoft Sentinelで受信ログを表示する
- 出力プラグインの監査ログを監視する
Logstash プラグインの前提条件
サポートされているバージョンの Logstash をインストールします。 このプラグインでは、次の Logstash バージョンがサポートされています。
- 7.0 - 7.17.13
- 8.0 - 8.9
- 8.11 - 8.15
- 8.19.2
- 9.0.8
- 9.1.10
- 9.2.4 - 9.2.5
注:
Logstash 8 を使用する場合は、 パイプラインで ECS を無効にすることをお勧めします。
少なくとも共同作成者の権限を持つ Log Analytics ワークスペースがあることを確認します。
ワークスペースに DCR オブジェクトを作成するアクセス許可があることを確認します。
プラグインをインストールする
Microsoft Sentinel出力プラグインは、RubyGems の Logstash コレクションで使用できます。
Logstash プラグインの操作に関 する ドキュメントの手順に従って、 microsoft-sentinel-log-analytics-logstash-output-plugin プラグインを インストールします。 既存の Logstash インストールにインストールするには、次のコマンドを実行します。
logstash-plugin install microsoft-sentinel-log-analytics-logstash-output-pluginLogstash システムにインターネットにアクセスできない場合は、Logstash オフライン プラグイン管理 ドキュメントの指示に従って、オフライン プラグイン パックを準備して使用します。 (これには、インターネット にアクセスできる別の Logstash システムを構築する必要があります)。
サンプル ファイルを作成する
このセクションでは、次のいずれかのシナリオでサンプル ファイルを作成します。
- カスタム ログのサンプル ファイルを作成する
- Syslog テーブルにログを取り込むサンプル ファイルを作成する
カスタム ログのサンプル ファイルを作成する
このシナリオでは、イベントをMicrosoft Sentinelに送信するように Logstash 入力プラグインを構成します。 この例では、ジェネレーター入力プラグインを使用してイベントをシミュレートします。 その他の入力プラグインを使用できます。
この例では、Logstash 構成ファイルは次のようになります。
input {
generator {
lines => [
"This is a test log message"
]
count => 10
}
}
サンプル ファイルを作成するには、次の手順に従います。
以下の出力プラグイン構成を Logstash 構成ファイルにコピーします。
output { microsoft-sentinel-log-analytics-logstash-output-plugin { create_sample_file => true sample_file_path => "<enter the path to the file in which the sample data will be written>" #for example: "c:\\temp" (for windows) or "/tmp" for Linux. } }参照先のファイル パスが既に存在することを確認し、Logstash を開始します。
このプラグインは、サンプリングするイベントが 10 個ある場合、または Logstash プロセスが正常に終了すると、構成されたパス内の
sampleFile<epoch seconds>.jsonという名前のサンプル ファイルに 10 個のレコードを書き込みます。 例: c:\temp\sampleFile1648453501.json。 プラグインが作成するサンプル ファイルの一部を次に示します。[ { "host": "logstashMachine", "sequence": 0, "message": "This is a test log message", "ls_timestamp": "2022-03-28T17:45:01.690Z", "ls_version": "1" }, { "host": "logstashMachine", "sequence": 1 ... ]プラグインは、次のプロパティをすべてのレコードに自動的に追加します。
-
ls_timestamp: 入力プラグインからレコードを受信した時刻 -
ls_version: Logstash パイプラインのバージョン。
これらのフィールドは、DCR を作成するときに削除できます。
-
Syslog テーブルにログを取り込むサンプル ファイルを作成する
このシナリオでは、syslog イベントをMicrosoft Sentinelに送信するように Logstash 入力プラグインを構成します。
Syslog メッセージがまだ Logstash マシンに転送されていない場合は、logger コマンドを使用してメッセージを生成できます。 たとえば (Linuxの場合):
logger -p local4.warn --rfc3164 --tcp -t CEF "0|Microsoft|Device|cef-test|example|data|1|here is some more data for the example" -P 514 -d -n 127.0.0.1Logstash 入力プラグインの例を次に示します。
input { syslog { port => 514 } }以下の出力プラグイン構成を Logstash 構成ファイルにコピーします。
output { microsoft-sentinel-log-analytics-logstash-output-plugin { create_sample_file => true sample_file_path => "<enter the path to the file in which the sample data will be written>" #for example: "c:\\temp" (for windows) or "/tmp" for Linux. } }ファイル パスが既に存在することを確認し、Logstash を開始します。
このプラグインは、サンプリングするイベントが 10 個ある場合、または Logstash プロセスが正常に終了すると、構成されたパス内の
sampleFile<epoch seconds>.jsonという名前のサンプル ファイルに 10 個のレコードを書き込みます。 例: c:\temp\sampleFile1648453501.json。 プラグインが作成するサンプル ファイルの一部を次に示します。[ { "logsource": "logstashMachine", "facility": 20, "severity_label": "Warning", "severity": 4, "timestamp": "Apr 7 08:26:04", "program": "CEF:", "host": "127.0.0.1", "facility_label": "local4", "priority": 164, "message": "0|Microsoft|Device|cef-test|example|data|1|here is some more data for the example", "ls_timestamp": "2022-04-07T08:26:04.000Z", "ls_version": "1" } ]プラグインは、次のプロパティをすべてのレコードに自動的に追加します。
-
ls_timestamp: 入力プラグインからレコードを受信した時刻 -
ls_version: Logstash パイプラインのバージョン。
これらのフィールドは、DCR を作成するときに削除できます。
-
必要な DCR リソースを作成する
MICROSOFT SENTINEL DCR ベースの Logstash プラグインを構成するには、まず DCR 関連のリソースを作成します。
このセクションでは、次のいずれかのシナリオで、DCR に使用するリソースを作成します。
- カスタム テーブルへのインジェスト用の DCR リソースを作成する
- 標準テーブルへのインジェスト用の DCR リソースを作成する
カスタム テーブルへのインジェスト用の DCR リソースを作成する
データをカスタム テーブルに取り込むには、次の手順に従います (REST API を使用してログAzure監視する (Azure portal) チュートリアル)。
前提条件を確認 します。
前のセクションで作成したサンプル ファイルを使用して、サンプル データを解析してフィルター処理します。
-
[サンプル データの送信] ステップをスキップします。
問題が発生した場合は、トラブルシューティングの 手順を参照してください。
標準テーブルへのインジェスト用の DCR リソースを作成する
Syslog や CommonSecurityLog などの標準テーブルにデータを取り込むには、REST API (Resource Manager テンプレート) を使用してログを監視Azureデータを送信するチュートリアルに基づくプロセスを使用します。 このチュートリアルでは、カスタム テーブルにデータを取り込む方法について説明しますが、データを標準テーブルに取り込むプロセスを簡単に調整できます。 次の手順は、手順の関連する変更を示しています。
前提条件を確認 します。
-
Log Analytics ワークスペースで新しいテーブルを作成する手順をスキップします。 テーブルは Log Analytics で既に定義されているため、データを標準テーブルに取り込む場合、この手順は関係ありません。
DCR を作成します。 この手順では、次の手順を実行します。
- 前のセクションで作成したサンプル ファイルを指定します。
- 作成したサンプル ファイルを使用して、
streamDeclarationsプロパティを定義します。 サンプル ファイル内の各フィールドには、同じ名前と適切な型を持つ対応する列が必要です (下の例を参照)。 - カスタム テーブルの代わりに標準テーブルの名前を使用して、
outputStreamプロパティの値を構成します。 カスタム テーブルとは異なり、標準のテーブル名には_CLサフィックスがありません。 - テーブル名のプレフィックスは、
Custom-ではなくMicrosoft-する必要があります。 この例では、outputStreamプロパティの値がMicrosoft-Syslog。
-
[サンプル データの送信] ステップをスキップします。
問題が発生した場合は、トラブルシューティングの 手順を参照してください。
例: Syslog テーブルにデータを取り込む DCR
次の点に留意してください。
-
streamDeclarations列名と型は、サンプル ファイル フィールドと同じである必要がありますが、それらすべてを指定する必要はありません。 たとえば、次の DCR では、PRI、type、ls_versionの各フィールドは、streamDeclarations列から省略されます。 -
dataflowsプロパティは、入力を Syslog テーブル形式に変換し、outputStreamをMicrosoft-Syslogに設定します。
{
"$schema": "https://schema.management.azure.com/schemas/2019-04-01/deploymentTemplate.json#",
"contentVersion": "1.0.0.0",
"parameters": {
"dataCollectionRuleName": {
"type": "String",
"metadata": {
"description": "Specifies the name of the Data Collection Rule to create."
}
},
"location": {
"defaultValue": "[resourceGroup().location]",
"type": "String",
"metadata": {
"description": "Specifies the location in which to create the Data Collection Rule."
}
},
"workspaceResourceId": {
"type": "String",
"metadata": {
"description": "Specifies the Azure resource ID of the Log Analytics workspace to use."
}
}
},
"resources": [
{
"type": "Microsoft.Insights/dataCollectionRules",
"apiVersion": "2021-09-01-preview",
"name": "[parameters('dataCollectionRuleName')]",
"location": "[parameters('location')]",
"properties": {
"streamDeclarations": {
"Custom-SyslogStream": {
"columns": [
{ "name": "ls_timestamp", "type": "datetime" },
{ "name": "timestamp", "type": "datetime" },
{ "name": "message", "type": "string" },
{ "name": "facility_label", "type": "string" },
{ "name": "severity_label", "type": "string" },
{ "name": "host", "type": "string" },
{ "name": "logsource", "type": "string" }
]
}
},
"destinations": {
"logAnalytics": [
{
"workspaceResourceId": "[parameters('workspaceResourceId')]",
"name": "clv2ws1"
}
]
},
"dataFlows": [
{
"streams": ["Custom-SyslogStream"],
"destinations": ["clv2ws1"],
"transformKql": "source | project TimeGenerated = ls_timestamp, EventTime = todatetime(timestamp), Computer = logsource, HostName = logsource, HostIP = host, SyslogMessage = message, Facility = facility_label, SeverityLevel = severity_label",
"outputStream": "Microsoft-Syslog"
}
]
}
}
],
"outputs": {
"dataCollectionRuleId": {
"type": "String",
"value": "[resourceId('Microsoft.Insights/dataCollectionRules', parameters('dataCollectionRuleName'))]"
}
}
}
Logstash 構成ファイルを構成する
このプラグインでは、 サービス プリンシパル (クライアント資格情報) と マネージド ID (パスワードレス) の 2 つの認証方法がサポートされています。 環境に合った方法を選択します。
サービス プリンシパル認証
サービス プリンシパル認証を使用してログをカスタム テーブルに取り込むよう Logstash 構成ファイルを構成するには、次の値を取得します。
| フィールド | 取得方法 |
|---|---|
client_app_Id |
このセクションで使用したチュートリアルに従って、DCR リソースを作成するときに手順 3 で作成した Application (client) ID 値。 |
client_app_secret |
このセクションで使用したチュートリアルに従って、DCR リソースを作成するときに手順 5 で作成したクライアント シークレット値。 |
tenant_id |
サブスクリプションのテナント ID。 テナント ID は、[ホーム] > Microsoft Entra ID > [概要] > [基本情報] にあります。 |
data_collection_endpoint |
このセクションで使用したチュートリアルに従って、DCR リソースを作成するときの手順 3 の logsIngestion URI の値。 |
dcr_immutable_id |
このセクションで使用したチュートリアルに従って、DCR リソースを作成するときに手順 6 で immutableId DCR の値。 |
dcr_stream_name |
カスタム テーブルの場合は、DCR リソースを作成する手順 6 で説明されているように、DCR の JSON ビューに移動し、 dataFlows>streams プロパティをコピーします。 次の例の dcr_stream_name を参照してください。 標準テーブルの場合、値は Custom-SyslogStream。 |
必要な値を取得した後:
- 前の手順で作成した Logstash 構成ファイルの出力セクションを次の例に置き換えます。
- 次の例のプレースホルダー文字列を、取得した値に置き換えます。
-
create_sample_file属性を必ずfalseに変更してください。
例: サービス プリンシパル出力プラグインの構成
output {
microsoft-sentinel-log-analytics-logstash-output-plugin {
client_app_Id => "<enter your client_app_id value here>"
client_app_secret => "<enter your client_app_secret value here>"
tenant_id => "<enter your tenant id here>"
data_collection_endpoint => "<enter your logsIngestion URI here>"
dcr_immutable_id => "<enter your DCR immutableId here>"
dcr_stream_name => "<enter your stream name here>"
create_sample_file=> false
sample_file_path => "c:\\temp"
}
}
マネージド ID 認証 (パスワードレス)
managed_identityが true に設定されている場合、プラグインはクライアント シークレットなしで認証されます。 プラグインは、実行時に次の順序で適切な ID メカニズムを自動的に検出します。
-
AKS ワークロード ID — 環境変数
AZURE_CLIENT_ID、AZURE_TENANT_ID、AZURE_FEDERATED_TOKEN_FILEが存在する場合 (AKS によって自動的に設定)、プラグインは OIDC トークン交換を実行します。 -
Azure Arc — Azure接続されたマシン エージェント (
azcmagent) がホストで検出された場合、プラグインはハイブリッド サーバーとオンプレミス サーバーに Azure Arc マネージド ID エンドポイントを使用します。 - IMDS — それ以外の場合、プラグインは、Azure VM と VMSS のAzure インスタンス メタデータ サービス (IMDS) にフォールバックします。
マネージド ID に必要な構成:
| フィールド | 説明 |
|---|---|
managed_identity |
ブール値。既定では false 。 パスワードレス認証を有効にするには、 true に設定します。 |
data_collection_endpoint |
文字列。 DCE の logsIngestion URI。 |
dcr_immutable_id |
文字列。 DCR immutableId。 |
dcr_stream_name |
文字列。 データ ストリームの名前。 |
managed_identity_object_id |
省略可能。 既定では空の文字列。 ユーザー割り当てマネージド ID のオブジェクト ID。 VM に複数のユーザー割り当て ID がある場合に必要です。 システム割り当てマネージド ID の場合は省略します。 |
例: システム割り当てマネージド ID
output {
microsoft-sentinel-log-analytics-logstash-output-plugin {
managed_identity => true
data_collection_endpoint => "<enter your DCE logsIngestion URI here>"
dcr_immutable_id => "<enter your DCR immutableId here>"
dcr_stream_name => "<enter your stream name here>"
}
}
例: ユーザー割り当てマネージド ID
output {
microsoft-sentinel-log-analytics-logstash-output-plugin {
managed_identity => true
managed_identity_object_id => "<enter the object ID of your user-assigned identity>"
data_collection_endpoint => "<enter your DCE logsIngestion URI here>"
dcr_immutable_id => "<enter your DCR immutableId here>"
dcr_stream_name => "<enter your stream name here>"
}
}
注:
- Arc Azure使用する場合、Logstash プロセスは、チャレンジ トークンを読み取るために
himdsグループのメンバーであるユーザーとして実行する必要があります。 詳細については、Arc マネージド ID のドキュメントAzure参照してください。 - セキュリティ上の理由から、Logstash 構成ファイルに
client_app_secretなどの機密性の高い構成値を暗黙的に指定しないでください。 機密情報を Logstash KeyStore に格納します。 - 空の文字列をプロキシ設定の値として設定すると、システム全体のプロキシ設定の設定が解除されます。
オプションの構成
| フィールド | 説明 | 既定値 |
|---|---|---|
azure_cloud |
使用されているAzure クラウドの名前を指定するために使用されます。 使用可能な値は、 AzureCloud、 AzureChinaCloud、 AzureUSGovernmentです。 |
AzureCloud |
key_names |
文字列の配列を指定します。 列のサブセットを Log Analytics に送信する場合は、このフィールドを指定します。 | なし (フィールドが空) |
plugin_flush_interval |
2 つのメッセージを Log Analytics に送信するまでの最大時間差 (秒単位) を定義します。 | 5 |
retransmission_time |
送信に失敗したメッセージを再送信する時間を秒単位で設定します。 | 10 |
retransmission_delay |
ログ データの送信時の再試行が失敗するまでの遅延 (秒単位)。 調整 (HTTP 429) シナリオ中の要求レートを減らすには、この値を増やします。 | 2 |
compress_data |
このフィールドが Trueされると、API を使用する前にイベント データが圧縮されます。 高スループットパイプラインに推奨されます。 |
False |
proxy |
すべての API 呼び出しに使用するプロキシ URL を指定します。 | なし (フィールドが空) |
proxy_aad |
Microsoft Entra IDへの API 呼び出しに使用するプロキシ URL を指定します。
proxy設定をオーバーライドします。 |
なし (フィールドが空) |
proxy_endpoint |
データ収集エンドポイントへの API 呼び出しに使用するプロキシ URL を指定します。
proxy設定をオーバーライドします。 |
なし (フィールドが空) |
Logstash を再起動する
更新された出力プラグイン構成で Logstash を再起動します。 DCR 構成に従って、データが正しいテーブルに取り込まれたことを確認します。
Microsoft Sentinelで受信ログを表示する
ログ データがワークスペースに到達することを確認するには、次の手順に従います。
メッセージが出力プラグインに送信されていることを確認します。
Microsoft Sentinel ナビゲーション メニューで、[ログ] を選択します。 [ テーブル ] 見出しで、[ カスタム ログ] カテゴリを展開します。 構成で指定したテーブルの名前 (
_CLサフィックス付き) を見つけて選択します。
テーブル内のレコードを表示するには、テーブル名をスキーマとして使用してテーブルにクエリを実行します。
出力プラグインの監査ログを監視する
Microsoft Sentinel出力プラグインの接続とアクティビティを監視するには、適切な Logstash ログ ファイルを有効にします。 ログ ファイルの場所については、 Logstash ディレクトリ レイアウト に関するドキュメントを参照してください。
このログ ファイルにデータが表示されない場合は、入力プラグインとフィルター プラグインを介してローカルでいくつかのイベントを生成して送信し、出力プラグインがデータを受信していることを確認します。 Microsoft Sentinelでは、出力プラグインに関連する問題のみがサポートされます。
ネットワーク セキュリティ
ネットワーク設定を定義し、Microsoft Sentinel Logstash 出力プラグインのネットワーク分離を有効にします。
仮想ネットワーク サービス タグ
Microsoft Sentinel出力プラグインでは、Azure仮想ネットワーク サービス タグがサポートされています。 AzureMonitor タグと AzureActiveDirectory タグの両方が必要です。
Azure Virtual Networkサービス タグを使用して、ネットワーク セキュリティ グループ、Azure Firewall、およびユーザー定義ルートに対するネットワーク アクセス制御を定義できます。 セキュリティ 規則とルートを作成するときは、特定の IP アドレスの代わりにサービス タグを使用します。 サービス タグAzure Virtual Network使用できないシナリオでは、ファイアウォールの要件を次に示します。
ファイアウォールの要件
次の表に、Azure仮想ネットワーク サービス タグを使用できないシナリオのファイアウォール要件を示します。
| クラウド | エンドポイント | 用途 | ポート | 方向 | HTTP 検査をバイパス |
|---|---|---|---|---|---|
| Azureコマーシャル | https://login.microsoftonline.com |
承認サーバー (Microsoft ID プラットフォーム) | ポート 443 | 送信 | はい |
| Azureコマーシャル | https://<data collection endpoint name>.<Azure cloud region>.ingest.monitor.azure.com |
データ収集エンドポイント | ポート 443 | 送信 | はい |
| Azure Government | https://login.microsoftonline.us |
承認サーバー (Microsoft ID プラットフォーム) | ポート 443 | 送信 | はい |
| Azure Government | 上記の '.com' を '.us' に置き換えます | データ収集エンドポイント | ポート 443 | 送信 | はい |
| 21Vianet が運営する Microsoft Azure | https://login.chinacloudapi.cn |
承認サーバー (Microsoft ID プラットフォーム) | ポート 443 | 送信 | はい |
| 21Vianet が運営する Microsoft Azure | 上記の '.com' を '.cn' に置き換えます | データ収集エンドポイント | ポート 443 | 送信 | はい |
プラグインのバージョン履歴
2.1.0
- イベント正規化を修正しました。
2.0.0
- Ruby から Java へのプラグインをリファクタリングしました。
- ManagedIdentity 認証を追加しました。
- GitHub から DevOps Azureにコードベースを移動しました。
- 閉じられたコードベース。
1.2.0
- Azure VM/VMSS (IMDS 経由でシステム割り当てとユーザー割り当て) のマネージド ID 認証のサポートを追加します。
- OIDC トークン交換を介して AKS ワークロード ID のサポートを追加します。
- ハイブリッド サーバーとオンプレミス サーバー Azure Arc マネージド ID のサポートを追加します。
- 環境 (ワークロード ID env vars、Arc エージェント、または IMDS フォールバック) に基づいて、実行時に認証方法を自動検出します。
- HTTP クライアントを
exconからrest-clientに移行し、JRuby プラグインと Logstash プラグインのエコシステムの互換性を向上させます。 - Active Directory 参照Azure Microsoft Entra IDに名前を変更します。
1.1.4
- プロキシ
excon使用するときにポートが常に使用されるように、ライブラリ バージョンを 1.0.0 未満に制限します。
1.1.3
- Azureへの接続に使用する
rest-clientライブラリをexconライブラリに置き換えます。
1.1.1
- 21Vianet が中国で運用Azure米国政府クラウドと Microsoft Azureのサポートを追加します。
1.1.0
- API 接続に異なるプロキシ値を設定できます。
- ログ インジェスト API のバージョンを 2023-01-01 にアップグレードします。
- プラグインの名前を microsoft-sentinel-log-analytics-logstash-output-plugin に変更します。
1.0.0
- Microsoft Sentinelの Logstash 出力プラグインの最初のリリース。 このプラグインは、Azure Monitor のログ インジェスト API でデータ収集規則 (DCR) を使用します。
既知の問題
Lite Ubuntu の Docker イメージにインストールされている Logstash を使用すると、次の警告が表示されることがあります。
java.lang.RuntimeException: getprotobyname_r failed
このエラーを解決するには、 Dockerfile に netbase パッケージをインストールします。
USER root
RUN apt install netbase -y
詳細については、「 Logstash 7.17.0 (Docker)の JNR 回帰」を参照してください。
環境のイベント レートが低い場合は、 plugin_flush_interval の値を 60 以上に増やします。 インジェスト ペイロードは 、DCR メトリックを使用して監視できます。 plugin_flush_intervalの詳細については、「省略可能な構成」の表を参照してください。
制限事項
標準テーブルへのインジェストは、 カスタム ログ インジェストでサポートされている標準テーブルにのみ制限されます。
streamDeclarationsプロパティの入力ストリームの列は、文字で始まる必要があります。 他の文字 (@や_など) で列を開始すると、操作は失敗します。TimeGenerateddatetime フィールドが必要です。 KQL 変換には、このフィールドを含める必要があります。その他の可能性のある問題については、チュートリアルの 「トラブルシューティング」セクション を参照してください。