Stream registros a Microsoft Sentinel con Logstash y la API basada en DCR

Importante

La ingesta de datos mediante el complemento de salida Logstash con reglas de recopilación de datos (DCR) está actualmente en versión preliminar pública. Esta característica se proporciona sin un contrato de nivel de servicio. Para obtener más información, vea Términos de uso complementarios para las versiones preliminares de Microsoft Azure.

El complemento de salida Logstash de Microsoft Sentinel admite transformaciones de canalización y configuración avanzada a través de reglas de recopilación de datos (DCR). El complemento reenvía registros de orígenes de datos externos a tablas personalizadas o estándar en Log Analytics o Microsoft Sentinel.

En este artículo, aprenderá a configurar el complemento Logstash para transmitir datos a Log Analytics o Microsoft Sentinel mediante DCR, con control total sobre el esquema de salida.

Con el complemento, puede:

  • Controlar la configuración de los nombres y tipos de columna.
  • Realice transformaciones en tiempo de ingesta, como filtrado o enriquecimiento.
  • Ingiera registros personalizados en una tabla personalizada o ingiera un flujo de entrada de Syslog en la tabla syslog de Log Analytics.

La ingesta en tablas estándar solo se limita a las tablas estándar admitidas para la ingesta de registros personalizados.

Para más información sobre cómo trabajar con el motor de recopilación de datos de Logstash, consulte Introducción a Logstash.

Introducción a la arquitectura

Diagrama de la arquitectura de Logstash que muestra las fases del complemento de entrada, filtro y salida que envían datos a Log Analytics a través de la API de ingesta de registros.

El motor de Logstash se compone de tres componentes:

  • Complementos de entrada: colección personalizada de datos de varios orígenes.
  • Filtrar complementos: Manipulación y normalización de datos según los criterios especificados.
  • Complementos de salida: envío personalizado de datos recopilados y procesados a varios destinos.

Nota:

  • Microsoft solo admite el complemento de salida logstash proporcionado por Microsoft Sentinel que se describe aquí. El complemento actual es microsoft-sentinel-log-analytics-logstash-output-plugin, v2.1.0. Puede abrir una incidencia de soporte técnico para cualquier problema relacionado con el complemento de salida.
  • Microsoft no admite complementos de salida de Logstash de terceros para Microsoft Sentinel ni ningún otro complemento o componente de Logstash de ningún tipo.
  • Consulte los requisitos previos para la compatibilidad con la versión de Logstash del complemento.

El complemento envía datos con formato JSON al área de trabajo de Log Analytics mediante la API de ingesta de registros. Los datos se ingieren en registros personalizados o en una tabla estándar.

Implementación del complemento de salida Microsoft Sentinel en Logstash

Para configurar el complemento, siga estos pasos:

  • Revisión de los requisitos previos
  • Instalación del complemento
  • Creación de un archivo de ejemplo
  • Creación de los recursos necesarios relacionados con DCR
  • Configuración del archivo de configuración de Logstash
  • Reinicio de Logstash
  • Visualización de los registros entrantes en Microsoft Sentinel
  • Supervisión de registros de auditoría del complemento de salida

Requisitos previos del complemento Logstash

  • Instale una versión compatible de Logstash. El complemento admite las siguientes versiones de Logstash:

    • 7.0 - 7.17.13
    • 8.0 - 8.9
    • 8.11 - 8.15
    • 8.19.2
    • 9.0.8
    • 9.1.10
    • 9.2.4 - 9.2.5

    Nota:

    Si usa Logstash 8, se recomienda deshabilitar ECS en la canalización.

  • Compruebe que tiene un área de trabajo de Log Analytics con al menos derechos de colaborador.

  • Compruebe que tiene permisos para crear objetos DCR en el área de trabajo.

Instalación del complemento

El complemento de salida Microsoft Sentinel está disponible en la colección Logstash en RubyGems.

Creación de un archivo de ejemplo

En esta sección, creará un archivo de ejemplo en uno de estos escenarios:

  • Creación de un archivo de ejemplo para registros personalizados
  • Creación de un archivo de ejemplo para ingerir registros en la tabla syslog

Creación de un archivo de ejemplo para registros personalizados

En este escenario, configurará el complemento de entrada Logstash para enviar eventos a Microsoft Sentinel. En este ejemplo se usa el complemento de entrada del generador para simular eventos. Puede usar cualquier otro complemento de entrada.

En este ejemplo, el archivo de configuración de Logstash tiene el siguiente aspecto:

input {
      generator {
            lines => [
                 "This is a test log message"
            ]
           count => 10
      }
}

Para crear el archivo de ejemplo, siga estos pasos:

  1. Copie la configuración del complemento de salida siguiente en el archivo de configuración de Logstash.

    output {
        microsoft-sentinel-log-analytics-logstash-output-plugin {
          create_sample_file => true
          sample_file_path => "<enter the path to the file in which the sample data will be written>" #for example: "c:\\temp" (for windows) or "/tmp" for Linux. 
        }
    }
    
  2. Asegúrese de que la ruta de acceso del archivo a la que se hace referencia ya existe y, a continuación, inicie Logstash.

    El complemento escribe diez registros en un archivo de ejemplo denominado sampleFile<epoch seconds>.json en la ruta de acceso configurada una vez que hay 10 eventos para muestrear o cuando el proceso de Logstash se cierra correctamente. Por ejemplo: c:\temp\sampleFile1648453501.json. Esta es parte de un archivo de ejemplo que el complemento crea:

    [
            {
                "host": "logstashMachine",
                "sequence": 0,
                "message": "This is a test log message",
                "ls_timestamp": "2022-03-28T17:45:01.690Z",
                "ls_version": "1"
            },
            {
                "host": "logstashMachine",
                "sequence": 1
        ...
    
        ]    
    

    El complemento agrega automáticamente estas propiedades a cada registro:

    • ls_timestamp: la hora en que se recibe el registro desde el complemento de entrada
    • ls_version: la versión de la canalización de Logstash.

    Puede quitar estos campos al crear la DCR.

Creación de un archivo de ejemplo para ingerir registros en la tabla syslog

En este escenario, configurará el complemento de entrada Logstash para enviar eventos de Syslog a Microsoft Sentinel.

  1. Si aún no tiene mensajes de Syslog reenviados a la máquina de Logstash, puede usar el comando logger para generar mensajes. Por ejemplo (para Linux):

    logger -p local4.warn --rfc3164 --tcp -t CEF "0|Microsoft|Device|cef-test|example|data|1|here is some more data for the example" -P 514 -d -n 127.0.0.1
    

    Este es un ejemplo del complemento de entrada Logstash:

    input {
         syslog {
             port => 514
        }
    }
    
  2. Copie la configuración del complemento de salida siguiente en el archivo de configuración de Logstash.

    output {
        microsoft-sentinel-log-analytics-logstash-output-plugin {
          create_sample_file => true
          sample_file_path => "<enter the path to the file in which the sample data will be written>" #for example: "c:\\temp" (for windows) or "/tmp" for Linux. 
        }
    }
    
  3. Asegúrese de que la ruta de acceso del archivo ya existe y, a continuación, inicie Logstash.

    El complemento escribe diez registros en un archivo de ejemplo denominado sampleFile<epoch seconds>.json en la ruta de acceso configurada una vez que hay 10 eventos para muestrear o cuando el proceso de Logstash se cierra correctamente. Por ejemplo: c:\temp\sampleFile1648453501.json. Esta es parte de un archivo de ejemplo que el complemento crea:

    [
            {
                "logsource": "logstashMachine",
                "facility": 20,
                "severity_label": "Warning",
                "severity": 4,
                "timestamp": "Apr  7 08:26:04",
                "program": "CEF:",
                "host": "127.0.0.1",
                "facility_label": "local4",
                "priority": 164,
                "message": "0|Microsoft|Device|cef-test|example|data|1|here is some more data for the example",
                "ls_timestamp": "2022-04-07T08:26:04.000Z",
                "ls_version": "1"
            }
    ]    
    
    

    El complemento agrega automáticamente estas propiedades a cada registro:

    • ls_timestamp: la hora en que se recibe el registro desde el complemento de entrada
    • ls_version: la versión de la canalización de Logstash.

    Puede quitar estos campos al crear la DCR.

Creación de los recursos de DCR necesarios

Para configurar el complemento Logstash basado en DCR Microsoft Sentinel, cree primero los recursos relacionados con DCR.

En esta sección, creará recursos para su DCR, en uno de estos escenarios:

  • Creación de recursos dcr para la ingesta en una tabla personalizada
  • Creación de recursos dcr para la ingesta en una tabla estándar

Creación de recursos dcr para la ingesta en una tabla personalizada

Para ingerir los datos en una tabla personalizada, siga estos pasos (en función del tutorial Enviar datos a Azure Supervisar registros mediante la API REST (Azure Portal):

  1. Revise los requisitos previos.

  2. Configure la aplicación.

  3. Agregue una tabla de registro personalizada.

  4. Analice y filtre los datos de ejemplo mediante el archivo de ejemplo que creó en la sección anterior.

  5. Recopile información del DCR.

  6. Asigne permisos a dcr.

    Omita el paso Enviar datos de ejemplo.

Si encuentra algún problema, consulte los pasos de solución de problemas.

Creación de recursos dcr para la ingesta en una tabla estándar

Para ingerir los datos en una tabla estándar como Syslog o CommonSecurityLog, use un proceso basado en el tutorial Enviar datos a Azure Supervisar registros mediante la API REST (plantillas de Resource Manager). Aunque en el tutorial se explica cómo ingerir datos en una tabla personalizada, puede ajustar fácilmente el proceso para ingerir datos en una tabla estándar. Los pasos siguientes indican los cambios pertinentes en los pasos.

  1. Revise los requisitos previos.

  2. Recopilar detalles del área de trabajo.

  3. Configurar una aplicación.

    Omita el paso Crear nueva tabla en el área de trabajo de Log Analytics. Este paso no es relevante al ingerir datos en una tabla estándar, ya que la tabla ya está definida en Log Analytics.

  4. Cree el DCR. En este paso:

    • Proporcione el archivo de ejemplo que creó en la sección anterior.
    • Use el archivo de ejemplo que creó para definir la streamDeclarations propiedad . Cada uno de los campos del archivo de ejemplo debe tener una columna correspondiente con el mismo nombre y el tipo adecuado (vea el ejemplo siguiente).
    • Configure el valor de la outputStream propiedad con el nombre de la tabla estándar en lugar de la tabla personalizada. A diferencia de las tablas personalizadas, los nombres de tabla estándar no tienen el _CL sufijo .
    • El prefijo del nombre de tabla debe ser Microsoft- en lugar de Custom-. En este ejemplo, el valor de la outputStream propiedad es Microsoft-Syslog.
  5. Asignar permisos a una DCR.

    Omita el paso Enviar datos de ejemplo.

Si encuentra algún problema, consulte los pasos de solución de problemas.

Ejemplo: DCR que ingiere datos en la tabla syslog

Tenga en cuenta estos puntos:

  • Los streamDeclarations nombres y tipos de columna deben ser los mismos que los campos de archivo de ejemplo, pero no es necesario especificar todos ellos. Por ejemplo, en la dcr siguiente, los PRIcampos y ls_versiontype se omiten de la streamDeclarations columna .
  • La dataflows propiedad transforma la entrada en el formato de tabla de Syslog y establece en outputStreamMicrosoft-Syslog.
{
  "$schema": "https://schema.management.azure.com/schemas/2019-04-01/deploymentTemplate.json#",
  "contentVersion": "1.0.0.0",
  "parameters": {
    "dataCollectionRuleName": {
      "type": "String",
      "metadata": {
        "description": "Specifies the name of the Data Collection Rule to create."
      }
    },
    "location": {
      "defaultValue": "[resourceGroup().location]",
      "type": "String",
      "metadata": {
        "description": "Specifies the location in which to create the Data Collection Rule."
      }
    },
    "workspaceResourceId": {
      "type": "String",
      "metadata": {
        "description": "Specifies the Azure resource ID of the Log Analytics workspace to use."
      }
    }
  },
  "resources": [
    {
      "type": "Microsoft.Insights/dataCollectionRules",
      "apiVersion": "2021-09-01-preview",
      "name": "[parameters('dataCollectionRuleName')]",
      "location": "[parameters('location')]",
      "properties": {
        "streamDeclarations": {
          "Custom-SyslogStream": {
            "columns": [
              { "name": "ls_timestamp", "type": "datetime" },
              { "name": "timestamp", "type": "datetime" },
              { "name": "message", "type": "string" },
              { "name": "facility_label", "type": "string" },
              { "name": "severity_label", "type": "string" },
              { "name": "host", "type": "string" },
              { "name": "logsource", "type": "string" }
            ]
          }
        },
        "destinations": {
          "logAnalytics": [
            {
              "workspaceResourceId": "[parameters('workspaceResourceId')]",
              "name": "clv2ws1"
            }
          ]
        },
        "dataFlows": [
          {
            "streams": ["Custom-SyslogStream"],
            "destinations": ["clv2ws1"],
            "transformKql": "source | project TimeGenerated = ls_timestamp, EventTime = todatetime(timestamp), Computer = logsource, HostName = logsource, HostIP = host, SyslogMessage = message, Facility = facility_label, SeverityLevel = severity_label",
            "outputStream": "Microsoft-Syslog"
          }
        ]
      }
    }
  ],
  "outputs": {
    "dataCollectionRuleId": {
      "type": "String",
      "value": "[resourceId('Microsoft.Insights/dataCollectionRules', parameters('dataCollectionRuleName'))]"
    }
  }
}

Configuración del archivo de configuración de Logstash

El complemento admite dos métodos de autenticación: entidad de servicio (credenciales de cliente) e identidad administrada (sin contraseña). Elija el método que se adapte a su entorno.

Autenticación de entidad de servicio

Para configurar el archivo de configuración de Logstash para ingerir los registros en una tabla personalizada mediante la autenticación de la entidad de servicio, recupere estos valores:

Campo Cómo recuperar
client_app_Id Valor Application (client) ID que se crea en el paso 3 al crear los recursos de DCR, según el tutorial que usó en esta sección.
client_app_secret El valor de secreto de cliente que se crea en el paso 5 al crear los recursos de DCR, según el tutorial que usó en esta sección.
tenant_id Identificador de inquilino de la suscripción. Puede encontrar el identificador de inquilino en Inicio > Microsoft Entra ID > Información > básica.
data_collection_endpoint Valor del URI del logsIngestion paso 3 al crear los recursos de DCR, según el tutorial que usó en esta sección.
dcr_immutable_id Valor de DCR immutableId en el paso 6 al crear los recursos de DCR, según el tutorial que usó en esta sección.
dcr_stream_name Para las tablas personalizadas, como se explica en el paso 6 al crear los recursos de DCR, vaya a la vista JSON de DCR y copie la dataFlows>streams propiedad. Consulte en dcr_stream_name el ejemplo siguiente. Para las tablas estándar, el valor es Custom-SyslogStream.

Después de recuperar los valores necesarios:

  1. Reemplace la sección de salida del archivo de configuración de Logstash que creó en el paso anterior por el ejemplo siguiente.
  2. Reemplace las cadenas de marcador de posición del ejemplo siguiente por los valores recuperados.
  3. Asegúrese de cambiar el create_sample_file atributo a false.
Ejemplo: Configuración del complemento de salida de la entidad de servicio
output {
    microsoft-sentinel-log-analytics-logstash-output-plugin {
      client_app_Id => "<enter your client_app_id value here>"
      client_app_secret => "<enter your client_app_secret value here>"
      tenant_id => "<enter your tenant id here>"
      data_collection_endpoint => "<enter your logsIngestion URI here>"
      dcr_immutable_id => "<enter your DCR immutableId here>"
      dcr_stream_name => "<enter your stream name here>"
      create_sample_file=> false
      sample_file_path => "c:\\temp"
    }
}

Autenticación de identidad administrada (sin contraseña)

Cuando managed_identity se establece en true, el complemento se autentica sin un secreto de cliente. El complemento detecta automáticamente el mecanismo de identidad adecuado en tiempo de ejecución en el orden siguiente:

  1. Identidad de carga de trabajo de AKS : si las variables AZURE_CLIENT_IDde entorno , AZURE_TENANT_IDy AZURE_FEDERATED_TOKEN_FILE están presentes (establecidas automáticamente por AKS), el complemento realiza un intercambio de tokens OIDC.
  2. Azure Arc: si se detecta el Azure Connected Machine Agent (azcmagent) en el host, el complemento usa el punto de conexión de identidad administrada de Azure Arc para servidores híbridos y locales.
  3. IMDS: de lo contrario, el complemento vuelve al servicio de metadatos de instancia de Azure (IMDS) para Azure máquinas virtuales y VMSS.

Configuración necesaria para la identidad administrada:

Campo Descripción
managed_identity Boolean, false de forma predeterminada. Establézcalo true en para habilitar la autenticación sin contraseña.
data_collection_endpoint Cadena. Uri de logsIngestion para el DCE.
dcr_immutable_id Cadena. DcR inmutableId.
dcr_stream_name Cadena. Nombre del flujo de datos.
managed_identity_object_id Opcional. Cadena, vacía de forma predeterminada. Identificador de objeto de una identidad administrada asignada por el usuario. Se requiere cuando la máquina virtual tiene varias identidades asignadas por el usuario. Omita la identidad administrada asignada por el sistema.
Ejemplo: Identidad administrada asignada por el sistema
output {
    microsoft-sentinel-log-analytics-logstash-output-plugin {
      managed_identity => true
      data_collection_endpoint => "<enter your DCE logsIngestion URI here>"
      dcr_immutable_id => "<enter your DCR immutableId here>"
      dcr_stream_name => "<enter your stream name here>"
    }
}
Ejemplo: Identidad administrada asignada por el usuario
output {
    microsoft-sentinel-log-analytics-logstash-output-plugin {
      managed_identity => true
      managed_identity_object_id => "<enter the object ID of your user-assigned identity>"
      data_collection_endpoint => "<enter your DCE logsIngestion URI here>"
      dcr_immutable_id => "<enter your DCR immutableId here>"
      dcr_stream_name => "<enter your stream name here>"
    }
}

Nota:

  • Al usar Azure Arc, el proceso de Logstash debe ejecutarse como un usuario que sea miembro del himds grupo para leer el token de desafío. Para obtener más información, consulte Azure documentación de identidad administrada de Arc.
  • Por motivos de seguridad, no indique implícitamente valores de configuración confidenciales, como client_app_secret en el archivo de configuración de Logstash. Almacene información confidencial en un almacén de claves de Logstash.
  • Cuando se establece una cadena vacía como un valor para una configuración de proxy, se desconjunte cualquier configuración de proxy de todo el sistema.

Configuración opcional

Campo Descripción Valor predeterminado
azure_cloud Se usa para especificar el nombre de la nube de Azure que se usa. Los valores disponibles son: AzureCloud, AzureChinaCloudy AzureUSGovernment. AzureCloud
key_names Matriz de cadenas de caracteres. Proporcione este campo si desea enviar un subconjunto de las columnas a Log Analytics. Ninguno (el campo está vacío)
plugin_flush_interval Define la diferencia máxima de tiempo (en segundos) entre el envío de dos mensajes a Log Analytics. 5
retransmission_time Establece la cantidad de tiempo en segundos para retransmitir mensajes una vez que se produjo un error en el envío. 10
retransmission_delay Se produce un error en el retraso en segundos entre cada intento de reintento al enviar datos de registro. Aumente este valor para reducir la tasa de solicitudes durante los escenarios de limitación (HTTP 429). 2
compress_data Cuando este campo es True, los datos del evento se comprimen antes de usar la API. Se recomienda para canalizaciones de alto rendimiento. False
proxy Especifique la dirección URL de proxy que se usará para todas las llamadas API. Ninguno (el campo está vacío)
proxy_aad Especifique la dirección URL de proxy que se usará para las llamadas API a Microsoft Entra ID. Invalida la proxy configuración. Ninguno (el campo está vacío)
proxy_endpoint Especifique la dirección URL de proxy que se usará para las llamadas API al punto de conexión de recopilación de datos. Invalida la proxy configuración. Ninguno (el campo está vacío)

Reinicio de Logstash

Reinicie Logstash con la configuración actualizada del complemento de salida. Compruebe que los datos se ingieren en la tabla correcta según la configuración de DCR.

Visualización de los registros entrantes en Microsoft Sentinel

Para comprobar que los datos de registro llegan al área de trabajo, siga estos pasos:

  1. Compruebe que los mensajes se envían al complemento de salida.

  2. En el menú de navegación Microsoft Sentinel, seleccione Registros. En el encabezado Tablas , expanda la categoría Registros personalizados . Busque y seleccione el nombre de la tabla que especificó (con un _CL sufijo) en la configuración.

    Captura de pantalla de la página registros de Microsoft Sentinel que muestra la categoría Registros personalizados expandida con una tabla personalizada de Logstash seleccionada.

  3. Para ver los registros de la tabla, consulte la tabla mediante el nombre de la tabla como esquema.

    Captura de pantalla de una consulta de registros personalizados de Logstash.

Supervisión de registros de auditoría del complemento de salida

Para supervisar la conectividad y la actividad del complemento de salida Microsoft Sentinel, habilite el archivo de registro de Logstash adecuado. Consulte el documento Diseño de directorio de Logstash para obtener la ubicación del archivo de registro.

Si no ve ningún dato en este archivo de registro, genere y envíe algunos eventos localmente a través de los complementos de entrada y filtro para asegurarse de que el complemento de salida recibe datos. Microsoft Sentinel solo admite problemas relacionados con el complemento de salida.

Seguridad de red

Defina la configuración de red y habilite el aislamiento de red para el complemento de salida Microsoft Sentinel Logstash.

Etiquetas de servicio de red virtual

Microsoft Sentinel complemento de salida admite Azure etiquetas de servicio de red virtual. Se requieren las etiquetas AzureMonitor y AzureActiveDirectory .

Azure Virtual Network etiquetas de servicio se pueden usar para definir controles de acceso de red en grupos de seguridad de red, Azure Firewall y rutas definidas por el usuario. Use etiquetas de servicio en lugar de direcciones IP específicas al crear reglas de seguridad y rutas. En escenarios en los que no se pueden usar etiquetas de servicio Azure Virtual Network, a continuación se indican los requisitos de firewall.

Requisitos de firewall

En la tabla siguiente se enumeran los requisitos de firewall para escenarios en los que no se pueden usar Azure etiquetas de servicio de red virtual.

Nube Punto de conexión Objetivo Puerto Dirección Omitir la inspección HTTP
Azure comercial https://login.microsoftonline.com Servidor de autorización (el Plataforma de identidad de Microsoft) Puerto 443 Salida Yes
Azure comercial https://<data collection endpoint name>.<Azure cloud region>.ingest.monitor.azure.com Punto de conexión de recopilación de datos Puerto 443 Salida Yes
Azure Government https://login.microsoftonline.us Servidor de autorización (el Plataforma de identidad de Microsoft) Puerto 443 Salida Yes
Azure Government Reemplace '.com' anterior por '.us' Punto de conexión de recopilación de datos Puerto 443 Salida Yes
Microsoft Azure operado por 21Vianet https://login.chinacloudapi.cn Servidor de autorización (el Plataforma de identidad de Microsoft) Puerto 443 Salida Yes
Microsoft Azure operado por 21Vianet Reemplace '.com' anterior por '.cn' Punto de conexión de recopilación de datos Puerto 443 Salida Yes

Historial de versiones del complemento

2.1.0

  • Se ha corregido la normalización de eventos.

2.0.0

  • Refactorizar el complemento de Ruby a Java.
  • Se agregó la autenticación ManagedIdentity.
  • Se ha movido código base de GitHub a Azure DevOps.
  • Código base cerrado.

1.2.0

  • Agrega compatibilidad con la autenticación de identidad administrada para Azure máquinas virtuales o VMSS (asignadas por el sistema y asignadas por el usuario a través de IMDS).
  • Agrega compatibilidad con la identidad de carga de trabajo de AKS a través del intercambio de tokens OIDC.
  • Agrega Azure compatibilidad con identidades administradas de Arc para servidores híbridos y locales.
  • Detecta automáticamente el método de autenticación en tiempo de ejecución en función del entorno (vars de desarrollo de identidad de carga de trabajo, agente de Arc o reserva de IMDS).
  • Migra el cliente HTTP de a rest-client para mejorar la compatibilidad del ecosistema del excon complemento JRuby y Logstash.
  • Cambia el nombre Azure referencias de Active Directory a Microsoft Entra ID.

1.1.4

  • Limita excon la versión de la biblioteca a una versión inferior a 1.0.0 para asegurarse de que el puerto siempre se usa cuando se usa un proxy.

1.1.3

  • Reemplaza la rest-client biblioteca que se usa para conectarse a Azure por la excon biblioteca.

1.1.1

  • Agrega compatibilidad con Azure nube del Gobierno de EE. UU. y Microsoft Azure operados por 21Vianet en China.

1.1.0

  • Permite establecer valores de proxy diferentes para las conexiones de API.
  • Actualiza la versión de la API de ingesta de registros a 2023-01-01.
  • Cambia el nombre del complemento a microsoft-sentinel-log-analytics-logstash-output-plugin.

1.0.0

  • La versión inicial del complemento de salida de Logstash para Microsoft Sentinel. Este complemento usa reglas de recopilación de datos (DCR) con la API de ingesta de registros de Azure Monitor.

Problemas conocidos

Al usar Logstash instalado en una imagen de Docker de Lite Ubuntu, puede aparecer la siguiente advertencia:

java.lang.RuntimeException: getprotobyname_r failed

Para resolver este error, instale el paquete netbase en el dockerfile:

USER root
RUN apt install netbase -y

Para obtener más información, consulte Regresión de JNR en Logstash 7.17.0 (Docker).

Si la tasa de eventos del entorno es baja, aumente el valor de plugin_flush_interval a 60 o más. Puede supervisar la carga de ingesta mediante métricas de DCR. Para obtener más información sobre plugin_flush_interval, consulte la tabla De configuración opcional .

Limitaciones