Nota
O acesso a esta página requer autorização. Pode tentar iniciar sessão ou alterar os diretórios.
O acesso a esta página requer autorização. Pode tentar alterar os diretórios.
A proteção de acesso de saída do espaço de trabalho ajuda a proteger os seus dados ao controlar as ligações de saída dos itens do seu espaço de trabalho para recursos externos. Quando esta funcionalidade está ativada, itens de Ciência de Dados como Experimentos de Aprendizagem Automática e modelos de Aprendizagem Automática podem ser criados e usados dentro do espaço de trabalho.
Anteriormente, não era possível criar Experiências de Aprendizagem Automática e Modelos de Aprendizagem Automática em espaços de trabalho com a proteção de acesso de saída ativada. Com esta pré-visualização, estes tipos de itens são agora suportados em espaços de trabalho protegidos.
Compreender a proteção de acessos de saída com Ciência de Dados
Experiências de Machine Learning e modelos de Machine Learning no Microsoft Fabric não fazem ligações de rede de saída a recursos externos por si só. Por causa disso, não são necessárias verificações adicionais de acesso de saída quando a proteção de acesso de saída está ativada.
O código do caderno que gera Machine Learning Experiments ou Models pode aceder a fontes de dados externas. O acesso de saída para notebooks é regulado pela configuração de proteção de acesso de saída da Engenharia de Dados, que controla como os notebooks se ligam a recursos fora do espaço de trabalho.
Configuração da proteção de acesso de saída para Ciência de Dados
Para configurar a proteção de acesso de saída, siga os passos em Ativar proteção de acesso de saída no workspace. Não é necessária configuração adicional para itens de Ciência de Dados. Depois de ativada a proteção de acesso outbound, os Machine Learning Experiments e Machine Learning Models funcionam no espaço de trabalho sem necessidade de configuração adicional.
Mecanismos de exceção, como endpoints privados geridos ou regras de ligação de dados, não são aplicáveis a itens de Ciência de Dados, porque estes itens não iniciam ligações de saída a recursos externos.
Tipos de itens de Ciência de Dados Suportados
Estes tipos de elementos de Ciência de Dados são protegidos por controlo de acesso de saída:
- Experiências de Machine Learning
- Modelos de Machine Learning
As seções a seguir explicam como a proteção de acesso de saída afeta esses itens em seu espaço de trabalho.
Experiências de Machine Learning
Com a proteção de acesso de saída ativada, pode criar e gerir experiências de Machine Learning no espaço de trabalho protegido. Os experimentos acompanham execuções, métricas e parâmetros das execuções em caderno. O registo de experiências funciona tanto dentro do mesmo espaço de trabalho como entre espaços de trabalho, usando registo entre espaços de trabalho. A proteção de acesso de saída não restringe esta funcionalidade.
Modelos de Machine Learning
Com a proteção de acesso de saída ativada, pode criar e gerir Modelos de Machine Learning no espaço de trabalho protegido. Os artefatos de modelos treinados e as informações de versão são armazenados pelos modelos. A criação e versionamento de modelos funcionam tanto no mesmo espaço de trabalho como entre diferentes espaços de trabalho, utilizando registos entre espaços de trabalho. A proteção de acesso de saída não restringe esta funcionalidade.
Registo cruzado entre espaços de trabalho com proteção de acessos de saída
Cross-workspace logging permite-lhe registar experiências e modelos de MLflow de um Fabric workspace para outro, ou de ambientes fora de Fabric, como máquinas locais, Azure Databricks e Azure Machine Learning. Isto permite fluxos de trabalho MLOps onde treina num ambiente de desenvolvimento e implementa para um ambiente de produção, ou integra ativos de ML existentes no Fabric a partir de plataformas externas.
Quando a proteção de acesso de saída está ativada no Workspace A, registar experiências e modelos de ML num Workspace B diferente requer um endpoint privado gerido entre espaços de trabalho do Workspace A para o Workspace B. Para aprender a configurar um endpoint privado gerido entre espaços de trabalho, consulte Permitir acesso de saída a outro espaço de trabalho no tenant.
A tabela seguinte resume a configuração necessária para cada cenário de registo entre espaços de trabalho quando a proteção de acesso de saída está ativada no Workspace A.
| Fonte | Destino | Configuração necessária no Workspace A | Podem as experiências e modelos de ML ser registados no destino? |
|---|---|---|---|
| Bloco de notas (Espaço de trabalho A) | Experiência / Modelo de ML (Workspace A) | Nenhum. O registo dentro do mesmo espaço de trabalho funciona sem configurações adicionais. | Sim |
| Bloco de notas (Espaço de trabalho A) | Experiência / Modelo de ML (Workspace B) | É necessário configurar um endpoint privado gerido entre espaços de trabalho entre o Workspace A e o Workspace B. | Sim |
| Bloco de notas (Espaço de trabalho A) | Experiência / Modelo de ML (Workspace B) | Nenhum endpoint privado gerido está configurado do Workspace A para o Workspace B. | No |
| Local machine, Azure Databricks, ou Azure Machine Learning | Experiência / Modelo de ML (Workspace A) | Nenhum. O registo a partir de fora do Fabric é uma ligação de entrada e não é afetado pela proteção de acesso de saída. | Sim |
Iniciar sessão no mesmo espaço de trabalho (Espaço de Trabalho A para Espaço de Trabalho A)
Ao iniciar sessão no mesmo espaço de trabalho, não precisa de definir manualmente a variável de ambiente MLFLOW_TRACKING_URI — por defeito, ela aponta para o seu espaço de trabalho atual. No entanto, se definir MLFLOW_TRACKING_URI explicitamente, deverá usar o URL do endpoint privado, similares a cenários entre diferentes espaços de trabalho.
import os
from fabric.analytics.environment.context import FabricContext, InternalContext
context = FabricContext(workspace_id=current_workspace_id, internal_context=InternalContext(is_wspl_enabled=True))
print(context.pbi_shared_host)
# You need to set up and use this private endpoint if your current workspace has OAP enabled
os.environ["MLFLOW_TRACKING_URI"] = f"sds://{context.pbi_shared_host}/v1/workspaces/{current_workspace_id}/mlflow"
Observação
O comando padrão %pip install requer acesso à internet de saída, que está bloqueado em espaços de trabalho com OAP. Para instalar o synapseml-mlflow pacote, descarregue-o de um ambiente não OAP, carregue os ficheiros para o lakehouse e instale-o a partir do caminho local. Para passos detalhados, veja Instalar o pacote num espaço de trabalho com OAP.
Considerações e limitações
- O acesso de saída para blocos de notas que geram experiências ou modelos é regido pela configuração de proteção de acesso de saída da Engenharia de Dados. Certifique-se de que as fontes de dados do seu caderno estão configuradas corretamente se o seu espaço de trabalho tiver a proteção de acesso de saída ativada.
- Para outras limitações, consulte a visão geral da proteção de acessos de saída do Workspace.
Conteúdo relacionado
- Visão geral da proteção de acesso de saída do espaço de trabalho
- Configurar a proteção de acesso de saída do espaço de trabalho
- Proteção de acesso de saída em espaços de trabalho para cargas de engenharia de dados
- Gerir modelos MLflow em espaços de trabalho e plataformas
- Experiência de aprendizagem automática
- Modelo de aprendizagem automática