Nota
O acesso a esta página requer autorização. Pode tentar iniciar sessão ou alterar os diretórios.
O acesso a esta página requer autorização. Pode tentar alterar os diretórios.
Encontre respostas a perguntas frequentes sobre conceitos e cenários relacionados com NER personalizados na Linguagem Azure no Foundry Tools.
Como faço para começar a usar o serviço?
Para obter mais informações, consulte nosso guia de início rápido ou como criar projetos.
Quais são os limites de serviço?
Para obter mais informações, consulteLimites de serviço.
Quantos arquivos marcados são necessários?
Geralmente, dados marcados diversos e representativos levam a melhores resultados, dado que a marcação é feita de forma precisa, consistente e completa. Não há um número definido de instâncias marcadas para que um modelo tenha um bom desempenho. O desempenho depende muito do seu esquema e da sua ambiguidade. Tipos de entidades ambíguas precisam de mais tags. O desempenho também depende da qualidade da sua etiquetagem. O número recomendado de instâncias marcadas para cada entidade é 50.
Quanto tempo deve levar para treinar um modelo?
O processo de formação pode demorar muito tempo. Como uma estimativa aproximada, o tempo de treinamento esperado para arquivos com um comprimento combinado de 12.800.000 caracteres é de 6 horas.
Como faço para criar meu modelo personalizado programaticamente?
Nota
Atualmente, você só pode criar um modelo usando a API REST ou o Language Studio.
Pode usar a Documentação de Referência da API REST para construir os seus modelos personalizados. Siga este guia de início rápido para começar a criar um projeto e criar um modelo por meio de APIs, como exemplo de como chamar a API de Authoring.
Quando estiver pronto para começar a usar seu modelo para fazer previsões, você poderá usar a API REST ou a biblioteca do cliente.
Qual é o processo de CI/CD recomendado?
Aqui está uma lista das ações que realiza no Microsoft Foundry:
- Treine vários modelos no mesmo conjunto de dados em um único projeto.
- Veja o desempenho do seu modelo.
- Implante e teste seu modelo e adicione ou remova rótulos de seus dados.
- Escolha como seu conjunto de dados é dividido em conjuntos de treinamento e teste.
Seus dados podem ser divididos aleatoriamente em conjuntos de treinamento e teste, mas isso significa que a avaliação do modelo pode não ser baseada no mesmo conjunto de testes, tornando os resultados não comparáveis. Recomendamos que você desenvolva seu próprio conjunto de testes e use-o para avaliar ambos os modelos para medir com precisão as melhorias.
Certifique-se de revisar os limites de serviço para entender o número máximo de modelos treinados permitidos por projeto.
Uma pontuação de modelo baixa ou alta garante um desempenho ruim ou bom na produção?
A avaliação do modelo pode nem sempre ser exaustiva. O âmbito depende dos seguintes fatores:
- O tamanho do conjunto de teste. Se o conjunto de testes for muito pequeno, as pontuações boas/ruins não serão tão representativas do desempenho real do modelo. Além disso, se um tipo de entidade específico estiver ausente ou sub-representado em seu conjunto de teste, isso afetará o desempenho do modelo.
- A diversidade dos seus dados. Se seus dados incluírem apenas um número limitado de cenários ou exemplos do texto que você prevê na produção, seu modelo pode não encontrar todas as situações possíveis. Como resultado, o modelo pode ter um desempenho ruim quando confrontado com cenários desconhecidos.
- A representação dentro dos seus dados. Se o conjunto de dados usado para treinar o modelo não for representativo dos dados que seriam introduzidos no modelo em produção, o desempenho do modelo será muito afetado.
Para obter mais informações, consulteseleção de dados e design de esquema.
Como posso melhorar o desempenho do modelo?
- Veja a matriz de confusão do modelo. Se você notar que um determinado tipo de entidade frequentemente não é previsto corretamente, considere adicionar mais instâncias marcadas para essa classe.
Quando dois tipos de entidades diferentes estão sendo frequentemente previstos um como o outro, isso indica que o esquema carece de clareza. Para melhorar o desempenho, você deve pensar em combinar esses dois tipos de entidade em um único tipo unificado. Se dois tipos de entidade são consistentemente confundidos um com o outro durante a previsão, esse resultado sugere ambiguidade em seu esquema. Mesclá-los em um tipo de entidade pode ajudar a melhorar a precisão geral do modelo.
Revise as previsões do conjunto de testes. Se um dos tipos de entidade tiver muito mais instâncias marcadas do que os outros, seu modelo pode ser tendencioso para esse tipo. Adicione mais dados aos outros tipos de entidade ou remova exemplos do tipo dominante.
Saiba mais sobre a seleção de dados e o design de esquemas.
Reveja o conjunto de testes. Analise as entidades previstas ao lado das entidades marcadas e obtenha uma compreensão mais clara da precisão do seu modelo. Essa comparação pode ajudá-lo a determinar se ajustes no esquema ou no conjunto de tags são necessários.
Porque é que obtenho resultados diferentes quando retreino o meu modelo?
Ao treinar seu modelo, você pode determinar se deseja que seus dados sejam divididos aleatoriamente em conjuntos de treinamento e teste. Se você optar por continuar, não há garantia de que a avaliação do modelo seja realizada no mesmo conjunto de testes, o que significa que os resultados podem não ser diretamente comparáveis. Ao fazer isso, você corre o risco de avaliar o modelo em um conjunto de teste diferente, tornando impossível comparar os resultados de forma confiável.
Se você estiver treinando novamente o mesmo modelo, seu conjunto de testes será o mesmo, mas poderá notar uma pequena mudança nas previsões feitas pelo modelo. A questão coloca-se porque o modelo treinado carece de robustez suficiente. Esse resultado depende de quão bem seus dados representam diferentes cenários, quão distintos são os pontos de dados e a qualidade geral de sua marcação de dados. Vários fatores influenciam o desempenho do modelo. A robustez do modelo, a distinção e diversidade do conjunto de dados e a precisão e uniformidade das tags atribuídas aos dados desempenham papéis importantes. Para obter os melhores resultados, você deve garantir que seu conjunto de dados não apenas represente com precisão o domínio de destino, mas também ofereça exemplos exclusivos e que todas as tags sejam aplicadas com consistência e precisão em todos os dados.
Como faço para obter previsões em diferentes idiomas?
Primeiro, você precisa habilitar a opção multilíngue ao criar seu projeto ou pode habilitá-la mais tarde na página de configurações do projeto. Depois de treinar e implantar seu modelo, você pode começar a consultá-lo em vários idiomas. Você pode obter resultados variados para diferentes idiomas. Para melhorar a precisão de qualquer idioma, adicione mais instâncias etiquetadas ao seu projeto nesse idioma para familiarizar o modelo treinado com mais sintaxe desse idioma.
Eu treinei meu modelo, mas não posso testá-lo
Você precisa implantar seu modelo antes de testá-lo.
Como faço para usar meu modelo treinado para previsões?
Depois de implantar seu modelo, você chama a API de previsão, usando a API REST ou bibliotecas de cliente.
Privacidade e segurança dos dados
Os seus dados são armazenados apenas na sua conta de Armazenamento do Azure. O NER personalizado só tem acesso à leitura durante o treinamento. Utilizadores NER personalizados têm controlo total para visualizar, exportar ou eliminar qualquer conteúdo do utilizador, seja através do Foundry ou programaticamente usando a Documentação de Referência da API REST). Para mais informações, consulteDados, privacidade e segurança para a Linguagem
Como clonar meu projeto?
Para clonar seu projeto, você precisa usar a API de exportação para exportar os ativos do projeto e, em seguida, importá-los para um novo projeto. Consulte a Documentação de Referência da API REST para ambas as operações.