Nota
O acesso a esta página requer autorização. Pode tentar iniciar sessão ou alterar os diretórios.
O acesso a esta página requer autorização. Pode tentar alterar os diretórios.
O MLflow Review App inclui uma interface de bate-papo integrada que permite que especialistas em domínio testem interativamente seu aplicativo GenAI e forneçam feedback imediato. Utilize a UI do bate-papo como uma forma de avaliar o ambiente do seu aplicativo.
Importante
A interface de chat da Review App requer um agente implementado num endpoint de Serviço de Modelos. Atualmente, não suporta agentes implementados nas aplicações Databricks. Se implementares o teu agente nas aplicações Databricks, ainda podes rotular os traços existentes para avaliação. A Databricks está a integrar suporte de revisão e feedback diretamente no modelo do chatbot.
Quando usar testes da interface de chat
Testar a interface de utilizador do bate-papo é ideal quando se deseja:
- Teste fluxos de conversação e interações de vários turnos com especialistas em domínio
- Coletar feedback de especialistas sobre as respostas e o comportamento do aplicativo
- Validar atualizações em um ambiente seguro antes da implantação de produção
Pré-requisitos
MLflow e pacotes necessários devem ser instalados. Os recursos descritos neste guia exigem o MLflow versão 3.1.0 ou superior. Execute o seguinte comando para instalar ou atualizar o SDK do MLflow, incluindo extras necessários para a integração do Databricks:
pip install --upgrade "mlflow[databricks]>=3.1.0" openai "databricks-connect>=16.1"Seu ambiente de desenvolvimento deve estar conectado ao Experimento MLflow onde os rastreamentos do aplicativo GenAI são registrados.
- Siga o Tutorial: Conecte seu ambiente de desenvolvimento ao MLflow para conectar seu ambiente de desenvolvimento.
Os especialistas em domínio precisam das seguintes permissões para usar a UI de chat do aplicativo Review:
Acesso à conta: deve ser provisionado em sua conta do Databricks, mas não precisa acessar seu espaço de trabalho.
Para usuários sem acesso ao espaço de trabalho, os administradores de conta podem:
- Usar o provisionamento SCIM no nível da conta para sincronizar usuários do seu provedor de identidade
- Registrar manualmente usuários e grupos no Databricks
Consulte Gerenciamento de usuários e grupos para obter detalhes.
Acesso ao ponto de extremidade: permissão CAN_QUERY para o ponto de extremidade de serviço do modelo.
Configurar e recolher feedback com a Interface de Utilizador do bate-papo
A interface do usuário de bate-papo do aplicativo MLflow Review se conecta a uma versão implantada do seu aplicativo GenAI, permitindo que especialistas em domínio conversem com seu aplicativo e forneçam feedback imediato. Siga estas etapas para configurar a interface do usuário do bate-papo e coletar comentários:
Empacota a sua aplicação usando o Agent Framework e implementa-a usando Deploy on Apps como um ponto final de serviço de modelo.
Adicione o ponto de extremidade ao aplicativo de revisão do experimento:
Observação
O exemplo abaixo adiciona um LLM hospedado no Databricks ao aplicativo de revisão. Substitua o ponto de extremidade pelo ponto de extremidade do seu aplicativo na etapa 1.
from mlflow.genai.labeling import get_review_app # Get review app for current MLflow experiment review_app = get_review_app() # Connect your deployed agent endpoint review_app.add_agent( agent_name="claude-sonnet", model_serving_endpoint="databricks-claude-sonnet-4-5", ) print(f"Share this URL: {review_app.url}/chat")Uma vez configurado, partilhe o URL da Review App com os especialistas no seu domínio. Serão capazes de:
- Aceda à interface de chat através do seu browser
- Interaja com seu aplicativo digitando perguntas
- Fornecer feedback após cada resposta usando os controles de feedback internos
- Continue a conversa para testar várias interações
Revisar a renderização de conteúdo do aplicativo
A interface de utilizador do chat usa consultas de peritos no domínio como entrada, respostas do ponto de extremidade do agente em tempo real como saída, e armazena resultados em registos no MLflow. Você não precisa fornecer um esquema de rotulagem personalizado, pois essa abordagem usa perguntas de feedback fixas.
A Aplicação de Revisão exibe automaticamente diferentes tipos de conteúdo do seu MLflow Trace:
-
Documentos recuperados: os documentos dentro de um
RETRIEVERintervalo são renderizados para exibição -
Mensagens no formato OpenAI: As entradas e saídas do MLflow Trace após as conversas de bate-papo do OpenAI são renderizadas:
-
outputsque contêm um objeto ChatCompletions no formato OpenAI -
inputsououtputsditames que contêm umamessageschave com uma matriz de mensagens de bate-papo no formato OpenAI- Se a matriz contiver chamadas de ferramentas de
messagesformato OpenAI, elas também serão renderizadas
- Se a matriz contiver chamadas de ferramentas de
-
- Dicionários: As entradas e saídas do MLflow Trace que são ditames são renderizadas como JSONs impressos com elegância
Caso contrário, o conteúdo do input e output da extensão raiz de cada rastreamento será usado como o conteúdo principal para revisão.
Ver comentários do chat
Todas as interações e feedback coletados através da interface de chat são automaticamente capturados como rastreamentos no MLflow.
Para visualizar os vestígios das interações do chat:
- Navegue até a interface do usuário do MLflow
- Encontre o experimento associado à sessão do aplicativo Review
- Navegue pelos registos para ver o histórico completo de conversação
- Reveja os comentários anexados a cada resposta
Próximos passos
- Saiba como rotular rastreamentos existentes para uma coleta de feedback mais sistemática
- Explore a coleta de feedback do usuário final para aplicativos de produção