Nota:
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
Importante
La ingesta de datos mediante el complemento de salida Logstash con reglas de recopilación de datos (DCR) está actualmente en versión preliminar pública. Esta característica se proporciona sin un contrato de nivel de servicio. Para obtener más información, vea Términos de uso complementarios para las versiones preliminares de Microsoft Azure.
El complemento de salida Logstash de Microsoft Sentinel admite transformaciones de canalización y configuración avanzada a través de reglas de recopilación de datos (DCR). El complemento reenvía registros de orígenes de datos externos a tablas personalizadas o estándar en Log Analytics o Microsoft Sentinel.
En este artículo, aprenderá a configurar el complemento Logstash para transmitir datos a Log Analytics o Microsoft Sentinel mediante DCR, con control total sobre el esquema de salida.
Con el complemento, puede:
- Controlar la configuración de los nombres y tipos de columna.
- Realice transformaciones en tiempo de ingesta, como filtrado o enriquecimiento.
- Ingiera registros personalizados en una tabla personalizada o ingiera un flujo de entrada de Syslog en la tabla syslog de Log Analytics.
La ingesta en tablas estándar solo se limita a las tablas estándar admitidas para la ingesta de registros personalizados.
Para más información sobre cómo trabajar con el motor de recopilación de datos de Logstash, consulte Introducción a Logstash.
Introducción a la arquitectura
El motor de Logstash se compone de tres componentes:
- Complementos de entrada: colección personalizada de datos de varios orígenes.
- Filtrar complementos: Manipulación y normalización de datos según los criterios especificados.
- Complementos de salida: envío personalizado de datos recopilados y procesados a varios destinos.
Nota:
- Microsoft solo admite el complemento de salida logstash proporcionado por Microsoft Sentinel que se describe aquí. El complemento actual es microsoft-sentinel-log-analytics-logstash-output-plugin, v2.1.0. Puede abrir una incidencia de soporte técnico para cualquier problema relacionado con el complemento de salida.
- Microsoft no admite complementos de salida de Logstash de terceros para Microsoft Sentinel ni ningún otro complemento o componente de Logstash de ningún tipo.
- Consulte los requisitos previos para la compatibilidad con la versión de Logstash del complemento.
El complemento envía datos con formato JSON al área de trabajo de Log Analytics mediante la API de ingesta de registros. Los datos se ingieren en registros personalizados o en una tabla estándar.
- Obtenga más información sobre la API de ingesta de registros.
Implementación del complemento de salida Microsoft Sentinel en Logstash
Para configurar el complemento, siga estos pasos:
- Revisión de los requisitos previos
- Instalación del complemento
- Creación de un archivo de ejemplo
- Creación de los recursos necesarios relacionados con DCR
- Configuración del archivo de configuración de Logstash
- Reinicio de Logstash
- Visualización de los registros entrantes en Microsoft Sentinel
- Supervisión de registros de auditoría del complemento de salida
Requisitos previos del complemento Logstash
Instale una versión compatible de Logstash. El complemento admite las siguientes versiones de Logstash:
- 7.0 - 7.17.13
- 8.0 - 8.9
- 8.11 - 8.15
- 8.19.2
- 9.0.8
- 9.1.10
- 9.2.4 - 9.2.5
Nota:
Si usa Logstash 8, se recomienda deshabilitar ECS en la canalización.
Compruebe que tiene un área de trabajo de Log Analytics con al menos derechos de colaborador.
Compruebe que tiene permisos para crear objetos DCR en el área de trabajo.
Instalación del complemento
El complemento de salida Microsoft Sentinel está disponible en la colección Logstash en RubyGems.
Siga las instrucciones del documento Logstash Working with plugins (Trabajo con complementos de Logstash) para instalar el complemento microsoft-sentinel-log-analytics-logstash-output-plugin . Para instalar en una instalación de Logstash existente, ejecute el siguiente comando:
logstash-plugin install microsoft-sentinel-log-analytics-logstash-output-pluginSi el sistema Logstash no tiene acceso a Internet, siga las instrucciones del documento Administración de complementos sin conexión de Logstash para preparar y usar un paquete de complementos sin conexión. (Esto requiere la creación de otro sistema Logstash con acceso a Internet).
Creación de un archivo de ejemplo
En esta sección, creará un archivo de ejemplo en uno de estos escenarios:
- Creación de un archivo de ejemplo para registros personalizados
- Creación de un archivo de ejemplo para ingerir registros en la tabla syslog
Creación de un archivo de ejemplo para registros personalizados
En este escenario, configurará el complemento de entrada Logstash para enviar eventos a Microsoft Sentinel. En este ejemplo se usa el complemento de entrada del generador para simular eventos. Puede usar cualquier otro complemento de entrada.
En este ejemplo, el archivo de configuración de Logstash tiene el siguiente aspecto:
input {
generator {
lines => [
"This is a test log message"
]
count => 10
}
}
Para crear el archivo de ejemplo, siga estos pasos:
Copie la configuración del complemento de salida siguiente en el archivo de configuración de Logstash.
output { microsoft-sentinel-log-analytics-logstash-output-plugin { create_sample_file => true sample_file_path => "<enter the path to the file in which the sample data will be written>" #for example: "c:\\temp" (for windows) or "/tmp" for Linux. } }Asegúrese de que la ruta de acceso del archivo a la que se hace referencia ya existe y, a continuación, inicie Logstash.
El complemento escribe diez registros en un archivo de ejemplo denominado
sampleFile<epoch seconds>.jsonen la ruta de acceso configurada una vez que hay 10 eventos para muestrear o cuando el proceso de Logstash se cierra correctamente. Por ejemplo: c:\temp\sampleFile1648453501.json. Esta es parte de un archivo de ejemplo que el complemento crea:[ { "host": "logstashMachine", "sequence": 0, "message": "This is a test log message", "ls_timestamp": "2022-03-28T17:45:01.690Z", "ls_version": "1" }, { "host": "logstashMachine", "sequence": 1 ... ]El complemento agrega automáticamente estas propiedades a cada registro:
-
ls_timestamp: la hora en que se recibe el registro desde el complemento de entrada -
ls_version: la versión de la canalización de Logstash.
Puede quitar estos campos al crear la DCR.
-
Creación de un archivo de ejemplo para ingerir registros en la tabla syslog
En este escenario, configurará el complemento de entrada Logstash para enviar eventos de Syslog a Microsoft Sentinel.
Si aún no tiene mensajes de Syslog reenviados a la máquina de Logstash, puede usar el comando logger para generar mensajes. Por ejemplo (para Linux):
logger -p local4.warn --rfc3164 --tcp -t CEF "0|Microsoft|Device|cef-test|example|data|1|here is some more data for the example" -P 514 -d -n 127.0.0.1Este es un ejemplo del complemento de entrada Logstash:
input { syslog { port => 514 } }Copie la configuración del complemento de salida siguiente en el archivo de configuración de Logstash.
output { microsoft-sentinel-log-analytics-logstash-output-plugin { create_sample_file => true sample_file_path => "<enter the path to the file in which the sample data will be written>" #for example: "c:\\temp" (for windows) or "/tmp" for Linux. } }Asegúrese de que la ruta de acceso del archivo ya existe y, a continuación, inicie Logstash.
El complemento escribe diez registros en un archivo de ejemplo denominado
sampleFile<epoch seconds>.jsonen la ruta de acceso configurada una vez que hay 10 eventos para muestrear o cuando el proceso de Logstash se cierra correctamente. Por ejemplo: c:\temp\sampleFile1648453501.json. Esta es parte de un archivo de ejemplo que el complemento crea:[ { "logsource": "logstashMachine", "facility": 20, "severity_label": "Warning", "severity": 4, "timestamp": "Apr 7 08:26:04", "program": "CEF:", "host": "127.0.0.1", "facility_label": "local4", "priority": 164, "message": "0|Microsoft|Device|cef-test|example|data|1|here is some more data for the example", "ls_timestamp": "2022-04-07T08:26:04.000Z", "ls_version": "1" } ]El complemento agrega automáticamente estas propiedades a cada registro:
-
ls_timestamp: la hora en que se recibe el registro desde el complemento de entrada -
ls_version: la versión de la canalización de Logstash.
Puede quitar estos campos al crear la DCR.
-
Creación de los recursos de DCR necesarios
Para configurar el complemento Logstash basado en DCR Microsoft Sentinel, cree primero los recursos relacionados con DCR.
En esta sección, creará recursos para su DCR, en uno de estos escenarios:
- Creación de recursos dcr para la ingesta en una tabla personalizada
- Creación de recursos dcr para la ingesta en una tabla estándar
Creación de recursos dcr para la ingesta en una tabla personalizada
Para ingerir los datos en una tabla personalizada, siga estos pasos (en función del tutorial Enviar datos a Azure Supervisar registros mediante la API REST (Azure Portal):
Revise los requisitos previos.
Analice y filtre los datos de ejemplo mediante el archivo de ejemplo que creó en la sección anterior.
-
Omita el paso Enviar datos de ejemplo.
Si encuentra algún problema, consulte los pasos de solución de problemas.
Creación de recursos dcr para la ingesta en una tabla estándar
Para ingerir los datos en una tabla estándar como Syslog o CommonSecurityLog, use un proceso basado en el tutorial Enviar datos a Azure Supervisar registros mediante la API REST (plantillas de Resource Manager). Aunque en el tutorial se explica cómo ingerir datos en una tabla personalizada, puede ajustar fácilmente el proceso para ingerir datos en una tabla estándar. Los pasos siguientes indican los cambios pertinentes en los pasos.
Revise los requisitos previos.
-
Omita el paso Crear nueva tabla en el área de trabajo de Log Analytics. Este paso no es relevante al ingerir datos en una tabla estándar, ya que la tabla ya está definida en Log Analytics.
Cree el DCR. En este paso:
- Proporcione el archivo de ejemplo que creó en la sección anterior.
- Use el archivo de ejemplo que creó para definir la
streamDeclarationspropiedad . Cada uno de los campos del archivo de ejemplo debe tener una columna correspondiente con el mismo nombre y el tipo adecuado (vea el ejemplo siguiente). - Configure el valor de la
outputStreampropiedad con el nombre de la tabla estándar en lugar de la tabla personalizada. A diferencia de las tablas personalizadas, los nombres de tabla estándar no tienen el_CLsufijo . - El prefijo del nombre de tabla debe ser
Microsoft-en lugar deCustom-. En este ejemplo, el valor de laoutputStreampropiedad esMicrosoft-Syslog.
-
Omita el paso Enviar datos de ejemplo.
Si encuentra algún problema, consulte los pasos de solución de problemas.
Ejemplo: DCR que ingiere datos en la tabla syslog
Tenga en cuenta estos puntos:
- Los
streamDeclarationsnombres y tipos de columna deben ser los mismos que los campos de archivo de ejemplo, pero no es necesario especificar todos ellos. Por ejemplo, en la dcr siguiente, losPRIcampos yls_versiontypese omiten de lastreamDeclarationscolumna . - La
dataflowspropiedad transforma la entrada en el formato de tabla de Syslog y establece enoutputStreamMicrosoft-Syslog.
{
"$schema": "https://schema.management.azure.com/schemas/2019-04-01/deploymentTemplate.json#",
"contentVersion": "1.0.0.0",
"parameters": {
"dataCollectionRuleName": {
"type": "String",
"metadata": {
"description": "Specifies the name of the Data Collection Rule to create."
}
},
"location": {
"defaultValue": "[resourceGroup().location]",
"type": "String",
"metadata": {
"description": "Specifies the location in which to create the Data Collection Rule."
}
},
"workspaceResourceId": {
"type": "String",
"metadata": {
"description": "Specifies the Azure resource ID of the Log Analytics workspace to use."
}
}
},
"resources": [
{
"type": "Microsoft.Insights/dataCollectionRules",
"apiVersion": "2021-09-01-preview",
"name": "[parameters('dataCollectionRuleName')]",
"location": "[parameters('location')]",
"properties": {
"streamDeclarations": {
"Custom-SyslogStream": {
"columns": [
{ "name": "ls_timestamp", "type": "datetime" },
{ "name": "timestamp", "type": "datetime" },
{ "name": "message", "type": "string" },
{ "name": "facility_label", "type": "string" },
{ "name": "severity_label", "type": "string" },
{ "name": "host", "type": "string" },
{ "name": "logsource", "type": "string" }
]
}
},
"destinations": {
"logAnalytics": [
{
"workspaceResourceId": "[parameters('workspaceResourceId')]",
"name": "clv2ws1"
}
]
},
"dataFlows": [
{
"streams": ["Custom-SyslogStream"],
"destinations": ["clv2ws1"],
"transformKql": "source | project TimeGenerated = ls_timestamp, EventTime = todatetime(timestamp), Computer = logsource, HostName = logsource, HostIP = host, SyslogMessage = message, Facility = facility_label, SeverityLevel = severity_label",
"outputStream": "Microsoft-Syslog"
}
]
}
}
],
"outputs": {
"dataCollectionRuleId": {
"type": "String",
"value": "[resourceId('Microsoft.Insights/dataCollectionRules', parameters('dataCollectionRuleName'))]"
}
}
}
Configuración del archivo de configuración de Logstash
El complemento admite dos métodos de autenticación: entidad de servicio (credenciales de cliente) e identidad administrada (sin contraseña). Elija el método que se adapte a su entorno.
Autenticación de entidad de servicio
Para configurar el archivo de configuración de Logstash para ingerir los registros en una tabla personalizada mediante la autenticación de la entidad de servicio, recupere estos valores:
| Campo | Cómo recuperar |
|---|---|
client_app_Id |
Valor Application (client) ID que se crea en el paso 3 al crear los recursos de DCR, según el tutorial que usó en esta sección. |
client_app_secret |
El valor de secreto de cliente que se crea en el paso 5 al crear los recursos de DCR, según el tutorial que usó en esta sección. |
tenant_id |
Identificador de inquilino de la suscripción. Puede encontrar el identificador de inquilino en Inicio > Microsoft Entra ID > Información > básica. |
data_collection_endpoint |
Valor del URI del logsIngestion paso 3 al crear los recursos de DCR, según el tutorial que usó en esta sección. |
dcr_immutable_id |
Valor de DCR immutableId en el paso 6 al crear los recursos de DCR, según el tutorial que usó en esta sección. |
dcr_stream_name |
Para las tablas personalizadas, como se explica en el paso 6 al crear los recursos de DCR, vaya a la vista JSON de DCR y copie la dataFlows>streams propiedad. Consulte en dcr_stream_name el ejemplo siguiente. Para las tablas estándar, el valor es Custom-SyslogStream. |
Después de recuperar los valores necesarios:
- Reemplace la sección de salida del archivo de configuración de Logstash que creó en el paso anterior por el ejemplo siguiente.
- Reemplace las cadenas de marcador de posición del ejemplo siguiente por los valores recuperados.
- Asegúrese de cambiar el
create_sample_fileatributo afalse.
Ejemplo: Configuración del complemento de salida de la entidad de servicio
output {
microsoft-sentinel-log-analytics-logstash-output-plugin {
client_app_Id => "<enter your client_app_id value here>"
client_app_secret => "<enter your client_app_secret value here>"
tenant_id => "<enter your tenant id here>"
data_collection_endpoint => "<enter your logsIngestion URI here>"
dcr_immutable_id => "<enter your DCR immutableId here>"
dcr_stream_name => "<enter your stream name here>"
create_sample_file=> false
sample_file_path => "c:\\temp"
}
}
Autenticación de identidad administrada (sin contraseña)
Cuando managed_identity se establece en true, el complemento se autentica sin un secreto de cliente. El complemento detecta automáticamente el mecanismo de identidad adecuado en tiempo de ejecución en el orden siguiente:
-
Identidad de carga de trabajo de AKS : si las variables
AZURE_CLIENT_IDde entorno ,AZURE_TENANT_IDyAZURE_FEDERATED_TOKEN_FILEestán presentes (establecidas automáticamente por AKS), el complemento realiza un intercambio de tokens OIDC. -
Azure Arc: si se detecta el Azure Connected Machine Agent (
azcmagent) en el host, el complemento usa el punto de conexión de identidad administrada de Azure Arc para servidores híbridos y locales. - IMDS: de lo contrario, el complemento vuelve al servicio de metadatos de instancia de Azure (IMDS) para Azure máquinas virtuales y VMSS.
Configuración necesaria para la identidad administrada:
| Campo | Descripción |
|---|---|
managed_identity |
Boolean, false de forma predeterminada. Establézcalo true en para habilitar la autenticación sin contraseña. |
data_collection_endpoint |
Cadena. Uri de logsIngestion para el DCE. |
dcr_immutable_id |
Cadena. DcR inmutableId. |
dcr_stream_name |
Cadena. Nombre del flujo de datos. |
managed_identity_object_id |
Opcional. Cadena, vacía de forma predeterminada. Identificador de objeto de una identidad administrada asignada por el usuario. Se requiere cuando la máquina virtual tiene varias identidades asignadas por el usuario. Omita la identidad administrada asignada por el sistema. |
Ejemplo: Identidad administrada asignada por el sistema
output {
microsoft-sentinel-log-analytics-logstash-output-plugin {
managed_identity => true
data_collection_endpoint => "<enter your DCE logsIngestion URI here>"
dcr_immutable_id => "<enter your DCR immutableId here>"
dcr_stream_name => "<enter your stream name here>"
}
}
Ejemplo: Identidad administrada asignada por el usuario
output {
microsoft-sentinel-log-analytics-logstash-output-plugin {
managed_identity => true
managed_identity_object_id => "<enter the object ID of your user-assigned identity>"
data_collection_endpoint => "<enter your DCE logsIngestion URI here>"
dcr_immutable_id => "<enter your DCR immutableId here>"
dcr_stream_name => "<enter your stream name here>"
}
}
Nota:
- Al usar Azure Arc, el proceso de Logstash debe ejecutarse como un usuario que sea miembro del
himdsgrupo para leer el token de desafío. Para obtener más información, consulte Azure documentación de identidad administrada de Arc. - Por motivos de seguridad, no indique implícitamente valores de configuración confidenciales, como
client_app_secreten el archivo de configuración de Logstash. Almacene información confidencial en un almacén de claves de Logstash. - Cuando se establece una cadena vacía como un valor para una configuración de proxy, se desconjunte cualquier configuración de proxy de todo el sistema.
Configuración opcional
| Campo | Descripción | Valor predeterminado |
|---|---|---|
azure_cloud |
Se usa para especificar el nombre de la nube de Azure que se usa. Los valores disponibles son: AzureCloud, AzureChinaCloudy AzureUSGovernment. |
AzureCloud |
key_names |
Matriz de cadenas de caracteres. Proporcione este campo si desea enviar un subconjunto de las columnas a Log Analytics. | Ninguno (el campo está vacío) |
plugin_flush_interval |
Define la diferencia máxima de tiempo (en segundos) entre el envío de dos mensajes a Log Analytics. | 5 |
retransmission_time |
Establece la cantidad de tiempo en segundos para retransmitir mensajes una vez que se produjo un error en el envío. | 10 |
retransmission_delay |
Se produce un error en el retraso en segundos entre cada intento de reintento al enviar datos de registro. Aumente este valor para reducir la tasa de solicitudes durante los escenarios de limitación (HTTP 429). | 2 |
compress_data |
Cuando este campo es True, los datos del evento se comprimen antes de usar la API. Se recomienda para canalizaciones de alto rendimiento. |
False |
proxy |
Especifique la dirección URL de proxy que se usará para todas las llamadas API. | Ninguno (el campo está vacío) |
proxy_aad |
Especifique la dirección URL de proxy que se usará para las llamadas API a Microsoft Entra ID. Invalida la proxy configuración. |
Ninguno (el campo está vacío) |
proxy_endpoint |
Especifique la dirección URL de proxy que se usará para las llamadas API al punto de conexión de recopilación de datos. Invalida la proxy configuración. |
Ninguno (el campo está vacío) |
Reinicio de Logstash
Reinicie Logstash con la configuración actualizada del complemento de salida. Compruebe que los datos se ingieren en la tabla correcta según la configuración de DCR.
Visualización de los registros entrantes en Microsoft Sentinel
Para comprobar que los datos de registro llegan al área de trabajo, siga estos pasos:
Compruebe que los mensajes se envían al complemento de salida.
En el menú de navegación Microsoft Sentinel, seleccione Registros. En el encabezado Tablas , expanda la categoría Registros personalizados . Busque y seleccione el nombre de la tabla que especificó (con un
_CLsufijo) en la configuración.
Para ver los registros de la tabla, consulte la tabla mediante el nombre de la tabla como esquema.
Supervisión de registros de auditoría del complemento de salida
Para supervisar la conectividad y la actividad del complemento de salida Microsoft Sentinel, habilite el archivo de registro de Logstash adecuado. Consulte el documento Diseño de directorio de Logstash para obtener la ubicación del archivo de registro.
Si no ve ningún dato en este archivo de registro, genere y envíe algunos eventos localmente a través de los complementos de entrada y filtro para asegurarse de que el complemento de salida recibe datos. Microsoft Sentinel solo admite problemas relacionados con el complemento de salida.
Seguridad de red
Defina la configuración de red y habilite el aislamiento de red para el complemento de salida Microsoft Sentinel Logstash.
Etiquetas de servicio de red virtual
Microsoft Sentinel complemento de salida admite Azure etiquetas de servicio de red virtual. Se requieren las etiquetas AzureMonitor y AzureActiveDirectory .
Azure Virtual Network etiquetas de servicio se pueden usar para definir controles de acceso de red en grupos de seguridad de red, Azure Firewall y rutas definidas por el usuario. Use etiquetas de servicio en lugar de direcciones IP específicas al crear reglas de seguridad y rutas. En escenarios en los que no se pueden usar etiquetas de servicio Azure Virtual Network, a continuación se indican los requisitos de firewall.
Requisitos de firewall
En la tabla siguiente se enumeran los requisitos de firewall para escenarios en los que no se pueden usar Azure etiquetas de servicio de red virtual.
| Nube | Punto de conexión | Objetivo | Puerto | Dirección | Omitir la inspección HTTP |
|---|---|---|---|---|---|
| Azure comercial | https://login.microsoftonline.com |
Servidor de autorización (el Plataforma de identidad de Microsoft) | Puerto 443 | Salida | Yes |
| Azure comercial | https://<data collection endpoint name>.<Azure cloud region>.ingest.monitor.azure.com |
Punto de conexión de recopilación de datos | Puerto 443 | Salida | Yes |
| Azure Government | https://login.microsoftonline.us |
Servidor de autorización (el Plataforma de identidad de Microsoft) | Puerto 443 | Salida | Yes |
| Azure Government | Reemplace '.com' anterior por '.us' | Punto de conexión de recopilación de datos | Puerto 443 | Salida | Yes |
| Microsoft Azure operado por 21Vianet | https://login.chinacloudapi.cn |
Servidor de autorización (el Plataforma de identidad de Microsoft) | Puerto 443 | Salida | Yes |
| Microsoft Azure operado por 21Vianet | Reemplace '.com' anterior por '.cn' | Punto de conexión de recopilación de datos | Puerto 443 | Salida | Yes |
Historial de versiones del complemento
2.1.0
- Se ha corregido la normalización de eventos.
2.0.0
- Refactorizar el complemento de Ruby a Java.
- Se agregó la autenticación ManagedIdentity.
- Se ha movido código base de GitHub a Azure DevOps.
- Código base cerrado.
1.2.0
- Agrega compatibilidad con la autenticación de identidad administrada para Azure máquinas virtuales o VMSS (asignadas por el sistema y asignadas por el usuario a través de IMDS).
- Agrega compatibilidad con la identidad de carga de trabajo de AKS a través del intercambio de tokens OIDC.
- Agrega Azure compatibilidad con identidades administradas de Arc para servidores híbridos y locales.
- Detecta automáticamente el método de autenticación en tiempo de ejecución en función del entorno (vars de desarrollo de identidad de carga de trabajo, agente de Arc o reserva de IMDS).
- Migra el cliente HTTP de a
rest-clientpara mejorar la compatibilidad del ecosistema delexconcomplemento JRuby y Logstash. - Cambia el nombre Azure referencias de Active Directory a Microsoft Entra ID.
1.1.4
- Limita
exconla versión de la biblioteca a una versión inferior a 1.0.0 para asegurarse de que el puerto siempre se usa cuando se usa un proxy.
1.1.3
- Reemplaza la
rest-clientbiblioteca que se usa para conectarse a Azure por laexconbiblioteca.
1.1.1
- Agrega compatibilidad con Azure nube del Gobierno de EE. UU. y Microsoft Azure operados por 21Vianet en China.
1.1.0
- Permite establecer valores de proxy diferentes para las conexiones de API.
- Actualiza la versión de la API de ingesta de registros a 2023-01-01.
- Cambia el nombre del complemento a microsoft-sentinel-log-analytics-logstash-output-plugin.
1.0.0
- La versión inicial del complemento de salida de Logstash para Microsoft Sentinel. Este complemento usa reglas de recopilación de datos (DCR) con la API de ingesta de registros de Azure Monitor.
Problemas conocidos
Al usar Logstash instalado en una imagen de Docker de Lite Ubuntu, puede aparecer la siguiente advertencia:
java.lang.RuntimeException: getprotobyname_r failed
Para resolver este error, instale el paquete netbase en el dockerfile:
USER root
RUN apt install netbase -y
Para obtener más información, consulte Regresión de JNR en Logstash 7.17.0 (Docker).
Si la tasa de eventos del entorno es baja, aumente el valor de plugin_flush_interval a 60 o más. Puede supervisar la carga de ingesta mediante métricas de DCR. Para obtener más información sobre plugin_flush_interval, consulte la tabla De configuración opcional .
Limitaciones
La ingesta en tablas estándar solo se limita a las tablas estándar admitidas para la ingesta de registros personalizados.
Las columnas del flujo de entrada de la
streamDeclarationspropiedad deben comenzar con una letra. Si inicia una columna con otros caracteres (por ejemplo@, o_), se produce un error en la operación.Se requiere el
TimeGeneratedcampo datetime. Debe incluir este campo en la transformación KQL.Para ver otros posibles problemas, revise la sección de solución de problemas del tutorial.