Información general de límites de Data Factory

Hay ciertas limitaciones en las características actuales de Data Factory en Microsoft Fabric. Antes de enviar una solicitud de soporte técnico, revise las listas de esta sección para determinar si experimenta una limitación conocida.

Para las notificaciones de degradación o interrupciones del nivel de servicio, revise el soporte técnico de Microsoft Fabric.

Limitaciones de canalización en Microsoft Fabric

En la lista siguiente se describen las limitaciones actuales de las canalizaciones en Data Factory en Microsoft Fabric.

  • La mayoría de los patrones de copia y orquestación de Azure Data Factory se aplican a las canalizaciones de Fabric, pero ventana de saltos de tamaño constante aún no está disponible.
  • Los conectores no admiten OAuth ni Azure almacén de claves (AKV).
  • La identidad del sistema administrada (MSI) solo está disponible para Azure Blob Storage. La compatibilidad con otros orígenes estará disponible próximamente.
  • La actividad GetMetaData no puede tener un origen de bases de datos KQL de Fabric.
  • La actividad de script no puede tener un origen de bases de datos KQL de Fabric.
  • La actividad de validación, la actividad de asignación de flujo de datos y el runtime de integración de SSIS no están disponibles.
  • La actividad web no admite la autenticación basada en la entidad de servicio.
  • La sincronización en segundo plano de la autenticación no se produce para las canalizaciones. La recomendación es realizar una descripción secundaria, como las actualizaciones de las canalizaciones y guardarlas. De este modo, se obtiene un nuevo token y se almacena en caché para que la canalización pueda ejecutarse de nuevo con la contraseña actualizada de Entra ID.

Límites de recursos de canalización

En la tabla siguiente se describen las limitaciones de recursos para las canalizaciones de Data Factory en Microsoft Fabric.

Recurso de canalización Límite predeterminado Límite máximo
Número total de canalizaciones dentro de un área de trabajo 5 000 5 000
Ejecuciones de canalización simultáneas por área de trabajo que se comparte entre todas las canalizaciones del área de trabajo 10 000 10 000
Actividades externas simultáneas, como procedimiento almacenado, Web, Web Hook y otros por área de trabajo 100 100
Ejecución simultánea de actividades de canalización para Búsqueda, GetMetadata y Eliminación por área de trabajo 100 100
Operaciones de creación simultáneas, incluida la conexión de prueba, examinar la lista de carpetas y la lista de tablas, obtener una vista previa de los datos, etc. por área de trabajo 50 50
Número máximo de actividades por canalización, lo que incluye actividades internas de contenedores 120 120
Parámetros máximos por canalización 50 50
Programaciones máximas por canalización 20 20
Elementos ForEach 100 000 100 000
Paralelismo ForEach 20 50
Recuento de elementos de actividad de búsqueda cinco mil cinco mil
Número máximo de ejecuciones en cola por canalización 100 100
Caracteres por expresión 8 192 8 192
Tiempo de espera máximo para ejecuciones de actividad de canalización 24 horas 24 horas
Bytes por objeto para objetos de canalización 200 KB 200 KB
Bytes por carga para cada ejecución de actividad 896 KB 896 KB
Optimización de rendimiento inteligente por ejecución de actividad de copia Automático 256
Optimización inteligente simultánea del ancho de banda por área de trabajo (el ancho de banda se comparte con el trabajo de copia) 400 400
Límite de tamaño de entidad de metadatos en una factoría 2 GB 2 GB

Límites de recursos para trabajos de copia

En la tabla siguiente se describen las limitaciones del trabajo de copia en Data Factory en Microsoft Fabric.

Copiar recurso de trabajo Límite predeterminado Límite máximo
Optimización de rendimiento inteligente por tabla o objeto Automático 256
Optimización de rendimiento inteligente simultánea por área de trabajo (el rendimiento se comparte con la canalización) 400 400

Limitaciones de Data Factory Dataflow Gen2

En la lista siguiente se describen las limitaciones de Dataflow Gen2 en Data Factory en Microsoft Fabric.

  • Límite de consultas para el almacenamiento provisional y los destinos: un único flujo de datos Gen2 admite hasta 50 consultas que:

    • Tener habilitado el almacenamiento provisional o
    • Tener configurado un destino de datos (por ejemplo, Warehouse, Lakehouse u otros destinos de Fabric).

    Las consultas que no escriben datos ,como funciones, consultas auxiliares o consultas de transformación intermedias que no están almacenadas provisionalmente y que no tienen un destino de datos, no cuentan para este límite.

  • Destino de datos al Almacén de lago de datos:
    • Los espacios o caracteres especiales no se admiten en los nombres de columna o tabla.
    • La duración y las columnas binarias no se admiten al crear flujos de datos de Dataflow Gen2.
  • Debe tener instalada una puerta de enlace compatible actualmente para usarla con Dataflow Gen2. Como mínimo, Dataflow Gen2 admite las seis últimas versiones de puerta de enlace publicadas.
  • Al utilizar credenciales de OAuth2, la puerta de enlace no admite actualmente actualizaciones de más de una hora. Estas actualizaciones producirán un error porque la puerta de enlace no puede admitir la actualización de tokens automáticamente cuando expiren los tokens de acceso, lo que sucede una hora después de que se inicie la actualización. Si recibe los errores "InvalidConnectionCredentials" o "AccessUnauthorized" al acceder a orígenes de datos en la nube mediante credenciales de OAuth2 aunque las credenciales se hayan actualizado recientemente, es posible que se produzca este error. Esta limitación para las actualizaciones de larga duración existe para las puertas de enlace de VNET y para las puertas de enlace de datos locales.
  • La especificación Delta Lake no admite nombres de columna que distinguen mayúsculas de minúsculas, por lo que MyColumn y mycolumn, mientras que se admite en Mashup, produce un error de "columnas duplicadas".
  • Actualmente, la nulabilidad de columnas tiene como valor predeterminado permitir valores NULL en todas las columnas del destino.
  • Después de guardar o publicar el flujo de datos gen2, es necesario que finalice el proceso de validación o publicación en un plazo de 10 minutos por consulta. Si supera este límite de 10 minutos, intente simplificar las consultas o dividir las consultas en el flujo de datos gen2.
  • No se puede conectar a un punto de conexión público de una cuenta de Azure Storage mediante Power Query Online o Dataflow Gen2 (sin puerta de enlace) si la cuenta de Azure Storage ya tiene uno o varios puntos de conexión privados creados. Deberá conectarse a estas cuentas de almacenamiento mediante una puerta de enlace de datos de red virtual o una puerta de enlace de datos local que pueda conectarse mediante puntos de conexión privados.
  • Dataflow Gen2 no permite que los usuarios invitados de un inquilino se conecten a los orígenes de datos y destinos dentro de ese mismo inquilino donde son invitados. Use un usuario nativo en el inquilino para conectarse a los orígenes y destinos de datos.
  • El consumo de datos de un flujo de datos gen2 con el conector de flujo de datos requiere permisos de administrador, miembro o colaborador. El permiso de visor no es suficiente y no se admite para consumir datos del flujo de datos.
  • Cuando no tiene acceso a los elementos de almacenamiento provisional con el flujo de datos durante más de 90 días, debe volver a autenticarse para asegurarse de que el flujo de datos puede acceder a los elementos de almacenamiento provisional. Para ello, cree un nuevo flujo de datos gen2 en la misma área de trabajo.
  • Cuando los elementos descendentes, como los modelos semánticos u otros Dataflows, consumen datos de un Dataflow Gen2 mediante el conector de Dataflows, los datos se recuperan a través de una API interna. Esta API puede experimentar tiempos de espera intermitentes, lo que puede dar lugar a errores de actualización para los elementos consumidores. El mensaje de error que se muestra en estos casos puede ser engañoso, por ejemplo: "La clave no coincide con ninguna fila de la tabla". Este error no indica un problema con los datos; significa que el servicio back-end no pudo devolver temporalmente los resultados del flujo de datos. Para mitigar este problema, configure un destino de datos (como Lakehouse o Warehouse) para cada flujo de datos de origen y actualice los elementos de bajada para leer desde ese destino mediante el conector Lakehouse o Warehouse en lugar del conector de flujos de datos. Este enfoque omite completamente la API interna y normalmente mejora la confiabilidad y el rendimiento generales de la actualización.
  • Puerta de enlace admitida requerida: Dataflow Gen2 requiere una puerta de enlace de datos admitida actualmente. Como mínimo, se admiten las seis últimas versiones de puerta de enlace publicadas.

  • Limitación de sensibilidad a mayúsculas y minúsculas de Delta Lake: Delta Lake no admite nombres de columna sensibles a mayúsculas y minúsculas. Las columnas como MyColumn y mycolumn producen errores de columna duplicados, aunque se permitan en Mashup.

  • Comportamiento predeterminado de nulabilidad de columna: todas las columnas de destino permiten valores NULL de forma predeterminada.

  • Límite de tiempo de publicación y validación: cada consulta debe completar la validación y publicar en un plazo de 10 minutos. Las consultas que superen este límite deben simplificarse o dividirse entre varios flujos de datos.

  • No se admite el acceso de usuario invitado: los usuarios invitados no pueden conectarse a orígenes de datos o destinos en el inquilino que visitan. En su lugar, use una cuenta de usuario nativa en el inquilino.

  • Permisos necesarios para consumir flujos de datos: el consumo de datos de un flujo de datos Gen2 requiere permisos de administrador, miembro o colaborador. No se admite el permiso de visualización.

  • Expiración de la autenticación de almacenamiento provisional: si no se tiene acceso a los elementos de almacenamiento provisional durante más de 90 días, se requiere volver a autenticar. Esto se puede hacer mediante la creación de un nuevo flujo de datos Gen2 en la misma área de trabajo.