Nota:
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
Se aplica a:SQL Server
SSIS Integration Runtime en Azure Data Factory
Este artículo se centra en los procedimientos recomendados para usar paquetes SSIS existentes para trabajar con el almacenamiento de datos en la plataforma Fabric.
Introducción
Microsoft Fabric es una plataforma de análisis completa que cubre todos los aspectos del patrimonio de datos de una organización. Una de sus experiencias clave es Fabric Data Warehouse, que sirve como una solución SaaS simplificada para un almacenamiento totalmente transaccional. Almacena datos en OneLake con un formato abierto denominado Delta Parquet, lo que garantiza que otras experiencias dentro de Fabric y otras aplicaciones cliente que se conectan mediante controladores SQL pueden acceder a ellos.
Como plataforma de análisis, Microsoft Fabric admite exclusivamente la autenticación a través de Microsoft Entra ID para usuarios y entidades de servicio (SPN). Esta elección deliberada garantiza la seguridad centralizada y basada en identidades, en consonancia con las prácticas de seguridad modernas. Por lo tanto, la autenticación de SQL y otros métodos de autenticación no se admiten en Fabric Data Warehouse dentro del ecosistema de Fabric.
Integración con Fabric Data Warehouse
Microsoft SQL Server Integration Services (SSIS) es un componente de la base de datos de Microsoft SQL Server que es una solución ETL. Muchos clientes empresariales usan ampliamente SSIS para realizar ETL local.
Para trabajar sin problemas con Fabric Data Warehouse, debe realizar dos modificaciones clave en el paquete SSIS.
Autenticación
Si usa la autenticación de SQL Server o la autenticación de Windows, vuelva a configurarla para usar el usuario de Microsoft Entra ID o el nombre principal de servicio (SPN). Si usa una cuenta de usuario, deshabilite la autenticación multifactor (MFA), ya que SSIS no admite mensajes emergentes. También necesita los controladores respectivos, como se mencionó en las secciones siguientes:
Para usar el administrador de conexiones OLEDB:
Instale la versión de Usar Microsoft Entra ID que admita Microsoft Entra ID.
Establezca Autenticación en
ActiveDirectoryServicePrincipaloActiveDirectoryPassword.OLEDB solo funciona para la tarea Ejecutar SQL, no funciona para el destino de OLE DB.
Para usar ADO.NET administrador de conexiones:
Use el proveedor Microsoft OLE DB para SQL Server para el proveedor de datos .NET Framework para OLE DB.
Establezca Autenticación en
ActiveDirectoryServicePrincipaloActiveDirectoryPassword.
Ingesta de archivos
Debe usar el comando nativo COPY INTO de T-SQL para una inserción de datos eficiente en su almacén de datos en Microsoft Fabric. Reemplace las operaciones DFT que se basan actualmente en el modo de inserción rápida o BCP IN los scripts por la COPY INTO instrucción mediante Ejecutar Tarea SQL.
Escritura de datos en Almacenamiento de datos en Fabric
En escenarios comunes de ETL, se leen datos de orígenes diferentes, como bases de datos transaccionales, recursos compartidos de archivos de red, ubicaciones locales o de red. Puede realizar pasos de transformación y volver a escribir los datos en un almacenamiento de datos designado, como un servidor SQL Server, un grupo dedicado de Synapse o cualquier otro almacén de datos compatible con SQL (como se muestra en el diagrama siguiente).
Para que el mismo paquete SSIS escriba en Fabric Data Warehouse, primero actualice la autenticación a Microsoft Entra ID si no se está utilizando ya. En segundo lugar, preconfigure temporalmente los datos en una instancia de ADLS Gen2. A continuación, pase la ruta de acceso al comando COPY INTO en Ejecutar tarea SQL.
El componente Destino de archivo flexible permite que un paquete SSIS escriba datos en Azure Data Lake Storage Gen2 (ADLS Gen2). Dentro de la tarea Flujo de datos, después de cargar y transformar, agregue un destino de archivo flexible, en el que puede definir el nombre de archivo de destino y la ubicación en ADLS Gen2.
Puede cargar datos almacenados en Azure Data Lake Storage (ADLS) Gen2 en Warehouse mediante la COPY instrucción directamente a través de Execute SQL Task.
Por ejemplo (reemplace <storage_account><storage_account_key> y account_key por valores válidos):
COPY INTO table_name FROM 'https://<storage_account>.dfs.core.windows.net/<folder>/'
WITH (FILE_TYPE = 'CSV',
CREDENTIAL = (IDENTITY = '<storage_account_key>',
SECRET = '<account_key>'),
FIELDQUOTE = '"',
FIELDTERMINATOR = ',',
ROWTERMINATOR = '0x0A',
ENCODING = 'UTF8'
);
Para obtener instrucciones más detalladas, consulte Ingesta de datos en el almacén mediante la instrucción COPY.
Limitaciones
Fabric Data Warehouse admite un subconjunto de tipos de datos T-SQL y no se admiten actualmente todos los comandos de T-SQL. Es posible que se produzca un error en los paquetes debido a características no admitidas. Para obtener más información, consulte Tipos de datos en almacenamiento y área expuesta de T-SQL en Fabric Data Warehouse.