Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
Cuidado
O serviço de Análise de Imagem 4.0 no Azure Vision in Foundry Tools foi preterido e será desativado em 25 de setembro de 2028, após o qual as chamadas feitas ao serviço falharão. Recomendamos que você alterne para uma das alternativas disponíveis descritas no guia de Migração.
Este artigo explica como configurar um script básico de marcação de imagem usando a API REST de Análise de Imagem ou bibliotecas de cliente. O serviço Analisar Imagem fornece algoritmos de IA para processar imagens e retornar informações sobre seus recursos visuais. Siga estas etapas para instalar um pacote em seu aplicativo e experimentar o código de exemplo.
Use a biblioteca de cliente de Análise de Imagem para C# para analisar uma imagem e obter tags de conteúdo. Este início rápido define um método, AnalyzeImageUrlque usa o objeto cliente para analisar uma imagem remota e imprimir os resultados.
Documentação de referência | Código-fonte da biblioteca | Pacote (NuGet) | Exemplos
Dica
Você também pode analisar uma imagem local. Consulte os métodos ComputerVisionClient , como AnalyzeImageInStreamAsync. Ou veja o código de exemplo em GitHub para cenários que envolvem imagens locais.
Dica
A API analisar imagem pode fazer muitas operações diferentes além de gerar marcas de imagem. Consulte o guia de instruções da Análise de Imagem para obter exemplos que mostram todos os recursos disponíveis.
Pré-requisitos
- Uma assinatura Azure. Você pode criar um gratuitamente.
- A versão Visual Studio IDE ou atual do .NET Core.
- Depois de ter sua assinatura do Azure, crie um recurso Pesquisa Visual Computacional no portal do Azure para obter sua chave e ponto de extremidade. Depois que ele for implantado, selecione Ir para o recurso.
- Você precisa da chave e do endpoint do recurso que você criar para conectar seu aplicativo ao Azure Vision nas Ferramentas da Foundry.
- Você pode usar o tipo de preço gratuito (
F0) para experimentar o serviço e atualizar posteriormente para uma camada paga para produção.
Criar variáveis de ambiente
Neste exemplo, escreva suas credenciais em variáveis de ambiente no computador local que executa o aplicativo.
Vá para o portal do Azure. Se o recurso que você criou na seção Pré-requisitos for implantado com êxito, selecione Ir para o recurso nas próximas etapas. Você pode encontrar sua chave e seu ponto de extremidade no Gerenciamento de Recursos, na página Chaves e Ponto de Extremidade do recurso Face. Sua chave de recurso não é a mesma que sua ID de assinatura Azure.
Para definir a variável de ambiente para sua chave e ponto de extremidade, abra uma janela do console e siga as instruções para seu sistema operacional e ambiente de desenvolvimento.
- Para definir a
VISION_KEYvariável de ambiente, substitua<your_key>por uma das chaves do recurso. - Para definir a variável de
VISION_ENDPOINTambiente, substitua<your_endpoint>pelo ponto de extremidade do recurso.
Importante
Recomendamos a autenticação Microsoft Entra ID com identidades gerenciadas para os recursos Azure para evitar armazenar credenciais nos seus aplicativos que são executados na nuvem.
Use chaves de API com cuidado. Não inclua a chave de API diretamente em seu código e nunca a publique publicamente. Se estiver usando chaves de API, armazene-as com segurança em Azure Key Vault, gire as chaves regularmente e restrinja o acesso a Azure Key Vault usando controle de acesso baseado em função e restrições de acesso à rede. Para obter mais informações sobre como usar chaves de API com segurança em seus aplicativos, consulte as chaves API com Azure Key Vault.
Para obter mais informações sobre a segurança dos serviços de IA, consulte Autenticar solicitações para Serviços de IA do Azure.
setx VISION_KEY <your_key>
setx VISION_ENDPOINT <your_endpoint>
Depois de adicionar as variáveis de ambiente, talvez seja necessário reiniciar todos os programas em execução que lerão as variáveis de ambiente, incluindo a janela do console.
Analisar imagem
Crie um novo aplicativo C#.
Usando Visual Studio, crie um novo aplicativo .NET Core.
Instalar a biblioteca de clientes
Depois de criar um novo projeto, instale a biblioteca de clientes clicando com o botão direito do mouse na solução de projeto no Gerenciador de Soluções e selecionando Manage NuGet Packages. No gerenciador de pacotes que se abre, selecione Browse, marque Include prerelease e pesquise
Microsoft.Azure.CognitiveServices.Vision.ComputerVision. Selecione a versão7.0.0e, em seguida, Instale.No diretório do projeto, abra o arquivo Program.cs em seu editor ou IDE preferencial. Cole o seguinte código:
using System; using System.Collections.Generic; using Microsoft.Azure.CognitiveServices.Vision.ComputerVision; using Microsoft.Azure.CognitiveServices.Vision.ComputerVision.Models; using System.Threading.Tasks; using System.IO; using Newtonsoft.Json; using Newtonsoft.Json.Linq; using System.Threading; using System.Linq; namespace ComputerVisionQuickstart { class Program { // Add your Computer Vision key and endpoint static string key = Environment.GetEnvironmentVariable("VISION_KEY"); static string endpoint = Environment.GetEnvironmentVariable("VISION_ENDPOINT"); // URL image used for analyzing an image (image of puppy) private const string ANALYZE_URL_IMAGE = "https://raw.githubusercontent.com/Azure-Samples/cognitive-services-sample-data-files/master/ComputerVision/Images/landmark.jpg"; static void Main(string[] args) { Console.WriteLine("Azure Cognitive Services Computer Vision - .NET quickstart example"); Console.WriteLine(); // Create a client ComputerVisionClient client = Authenticate(endpoint, key); // Analyze an image to get features and other properties. AnalyzeImageUrl(client, ANALYZE_URL_IMAGE).Wait(); } /* * AUTHENTICATE * Creates a Computer Vision client used by each example. */ public static ComputerVisionClient Authenticate(string endpoint, string key) { ComputerVisionClient client = new ComputerVisionClient(new ApiKeyServiceClientCredentials(key)) { Endpoint = endpoint }; return client; } public static async Task AnalyzeImageUrl(ComputerVisionClient client, string imageUrl) { Console.WriteLine("----------------------------------------------------------"); Console.WriteLine("ANALYZE IMAGE - URL"); Console.WriteLine(); // Creating a list that defines the features to be extracted from the image. List<VisualFeatureTypes?> features = new List<VisualFeatureTypes?>() { VisualFeatureTypes.Tags }; Console.WriteLine($"Analyzing the image {Path.GetFileName(imageUrl)}..."); Console.WriteLine(); // Analyze the URL image ImageAnalysis results = await client.AnalyzeImageAsync(imageUrl, visualFeatures: features); // Image tags and their confidence score Console.WriteLine("Tags:"); foreach (var tag in results.Tags) { Console.WriteLine($"{tag.Name} {tag.Confidence}"); } Console.WriteLine(); } } }Importante
Recomendamos a autenticação Microsoft Entra ID com identidades gerenciadas para os recursos Azure para evitar armazenar credenciais nos seus aplicativos que são executados na nuvem.
Use chaves de API com cuidado. Não inclua a chave de API diretamente em seu código e nunca a publique publicamente. Se estiver usando chaves de API, armazene-as com segurança em Azure Key Vault, gire as chaves regularmente e restrinja o acesso a Azure Key Vault usando controle de acesso baseado em função e restrições de acesso à rede. Para obter mais informações sobre como usar chaves de API com segurança em seus aplicativos, consulte as chaves API com Azure Key Vault.
Para obter mais informações sobre a segurança dos serviços de IA, consulte Autenticar solicitações para Serviços de IA do Azure.
Executar o aplicativo
Execute o aplicativo clicando no botão Depurar na parte superior da janela do IDE.
Saída
A saída da operação deve ser semelhante ao exemplo a seguir.
----------------------------------------------------------
ANALYZE IMAGE - URL
Analyzing the image sample16.png...
Tags:
grass 0.9957543611526489
dog 0.9939157962799072
mammal 0.9928356409072876
animal 0.9918001890182495
dog breed 0.9890419244766235
pet 0.974603533744812
outdoor 0.969241738319397
companion dog 0.906731367111206
small greek domestic dog 0.8965123891830444
golden retriever 0.8877675533294678
labrador retriever 0.8746421337127686
puppy 0.872604250907898
ancient dog breeds 0.8508287668228149
field 0.8017748594284058
retriever 0.6837497353553772
brown 0.6581960916519165
Limpar recursos
Se você quiser limpar e remover uma assinatura do Foundry Tools, poderá excluir o recurso ou o grupo de recursos. Excluir o grupo de recursos também exclui outros recursos associados a ele.
Conteúdo relacionado
Neste início rápido, você aprendeu a instalar a biblioteca de clientes da Análise de Imagem e a fazer chamadas básicas de análise de imagem. Em seguida, saiba mais sobre os recursos da API de Análise de Imagem.
Use a biblioteca cliente de Análise de Imagem para Python para analisar uma imagem remota para tags de conteúdo.
Dica
Você também pode analisar uma imagem local. Consulte os métodos ComputerVisionClientOperationsMixin , como analyze_image_in_stream. Ou consulte o código sample em GitHub para cenários que envolvem imagens locais.
Dica
A API analisar imagem pode fazer muitas operações diferentes além de gerar marcas de imagem. Consulte o guia de instruções da Análise de Imagem para obter exemplos que mostram todos os recursos disponíveis.
Documentação de referência | Código-fonte da biblioteca | Pacote (PiPy) | Exemplos
Pré-requisitos
- Uma assinatura Azure. Você pode criar um gratuitamente.
-
Python 3.x.
- Sua instalação Python deve incluir pip. Você pode verificar se o pip foi instalado executando
pip --versionna linha de comando. Para obter o pip, instale a versão mais recente do Python.
- Sua instalação Python deve incluir pip. Você pode verificar se o pip foi instalado executando
- Depois de ter sua assinatura do Azure, crie um recurso Pesquisa Visual Computacional no portal do Azure para obter sua chave e ponto de extremidade. Depois que ele for implantado, selecione Ir para o recurso.
- Você precisa da chave e do endpoint do recurso que você criar para conectar seu aplicativo ao Azure Vision nas Ferramentas da Foundry.
- Você pode usar o tipo de preço gratuito (
F0) para experimentar o serviço e atualizar posteriormente para uma camada paga para produção.
Criar variáveis de ambiente
Neste exemplo, escreva suas credenciais em variáveis de ambiente no computador local que executa o aplicativo.
Vá para o portal do Azure. Se o recurso que você criou na seção Pré-requisitos for implantado com êxito, selecione Ir para o recurso nas próximas etapas. Você pode encontrar sua chave e seu ponto de extremidade no Gerenciamento de Recursos, na página Chaves e Ponto de Extremidade do recurso Face. Sua chave de recurso não é a mesma que sua ID de assinatura Azure.
Para definir a variável de ambiente para sua chave e ponto de extremidade, abra uma janela do console e siga as instruções para seu sistema operacional e ambiente de desenvolvimento.
- Para definir a
VISION_KEYvariável de ambiente, substitua<your_key>por uma das chaves do recurso. - Para definir a variável de
VISION_ENDPOINTambiente, substitua<your_endpoint>pelo ponto de extremidade do recurso.
Importante
Recomendamos a autenticação Microsoft Entra ID com identidades gerenciadas para os recursos Azure para evitar armazenar credenciais nos seus aplicativos que são executados na nuvem.
Use chaves de API com cuidado. Não inclua a chave de API diretamente em seu código e nunca a publique publicamente. Se estiver usando chaves de API, armazene-as com segurança em Azure Key Vault, gire as chaves regularmente e restrinja o acesso a Azure Key Vault usando controle de acesso baseado em função e restrições de acesso à rede. Para obter mais informações sobre como usar chaves de API com segurança em seus aplicativos, consulte as chaves API com Azure Key Vault.
Para obter mais informações sobre a segurança dos serviços de IA, consulte Autenticar solicitações para Serviços de IA do Azure.
setx VISION_KEY <your_key>
setx VISION_ENDPOINT <your_endpoint>
Depois de adicionar as variáveis de ambiente, talvez seja necessário reiniciar todos os programas em execução que lerão as variáveis de ambiente, incluindo a janela do console.
Analisar imagem
Instale a biblioteca de clientes.
Você pode instalar a biblioteca de clientes com:
pip install --upgrade azure-cognitiveservices-vision-computervisionInstale também a biblioteca Pillow.
pip install pillowCrie um novo aplicativo Python.
Crie um novo arquivo de Python. Você pode nomeá-lo quickstart-file.py, por exemplo.
Abra quickstart-file.py em um editor de texto ou IDE e cole no código a seguir.
from azure.cognitiveservices.vision.computervision import ComputerVisionClient from azure.cognitiveservices.vision.computervision.models import OperationStatusCodes from azure.cognitiveservices.vision.computervision.models import VisualFeatureTypes from msrest.authentication import CognitiveServicesCredentials from array import array import os from PIL import Image import sys import time ''' Authenticate Authenticates your credentials and creates a client. ''' subscription_key = os.environ["VISION_KEY"] endpoint = os.environ["VISION_ENDPOINT"] computervision_client = ComputerVisionClient(endpoint, CognitiveServicesCredentials(subscription_key)) ''' END - Authenticate ''' ''' Quickstart variables These variables are shared by several examples ''' # Images used for the examples: Describe an image, Categorize an image, Tag an image, # Detect faces, Detect adult or racy content, Detect the color scheme, # Detect domain-specific content, Detect image types, Detect objects images_folder = os.path.join (os.path.dirname(os.path.abspath(__file__)), "images") remote_image_url = "https://raw.githubusercontent.com/Azure-Samples/cognitive-services-sample-data-files/master/ComputerVision/Images/landmark.jpg" ''' END - Quickstart variables ''' ''' Tag an Image - remote This example returns a tag (key word) for each thing in the image. ''' print("===== Tag an image - remote =====") # Call API with remote image tags_result_remote = computervision_client.tag_image(remote_image_url ) # Print results with confidence score print("Tags in the remote image: ") if (len(tags_result_remote.tags) == 0): print("No tags detected.") else: for tag in tags_result_remote.tags: print("'{}' with confidence {:.2f}%".format(tag.name, tag.confidence * 100)) print() ''' END - Tag an Image - remote ''' print("End of Computer Vision quickstart.")Execute o aplicativo usando o
pythoncomando em seu arquivo de início rápido.python quickstart-file.py
Saída
A saída da operação deve ser semelhante ao exemplo a seguir.
===== Tag an image - remote =====
Tags in the remote image:
'outdoor' with confidence 99.00%
'building' with confidence 98.81%
'sky' with confidence 98.21%
'stadium' with confidence 98.17%
'ancient rome' with confidence 96.16%
'ruins' with confidence 95.04%
'amphitheatre' with confidence 93.99%
'ancient roman architecture' with confidence 92.65%
'historic site' with confidence 89.55%
'ancient history' with confidence 89.54%
'history' with confidence 86.72%
'archaeological site' with confidence 84.41%
'travel' with confidence 65.85%
'large' with confidence 61.02%
'city' with confidence 56.57%
End of Azure Vision quickstart.
Limpar recursos
Se você quiser limpar e remover uma assinatura do Foundry Tools, poderá excluir o recurso ou o grupo de recursos. Excluir o grupo de recursos também exclui outros recursos associados a ele.
Próxima etapa
Neste início rápido, você aprendeu a instalar a biblioteca de clientes da Análise de Imagem e a fazer chamadas básicas de análise de imagem. Em seguida, saiba mais sobre os recursos da API Analyze Image.
Use a biblioteca cliente para Análise de Imagem em Java para analisar uma imagem remota em busca de tags, descrição textual, rostos, conteúdo adulto e muito mais.
Dica
Você também pode analisar uma imagem local. Consulte os métodos ComputerVision , como AnalyzeImage. Ou consulte o código sample em GitHub para cenários que envolvem imagens locais.
Dica
A API analisar imagem pode fazer muitas operações diferentes além de gerar marcas de imagem. Consulte o guia de instruções da Análise de Imagem para obter exemplos que mostram todos os recursos disponíveis.
Reference documentation | Library source code |Artifact (Maven) | Samples
Pré-requisitos
- Uma assinatura Azure. Você pode criar um gratuitamente.
- A versão atual do Java Development Kit (JDK).
- A ferramenta de construção Gradle ou outro gerenciador de dependências.
- Depois de ter sua assinatura do Azure, crie um recurso Pesquisa Visual Computacional no portal do Azure para obter sua chave e ponto de extremidade. Depois que ele for implantado, selecione Ir para o recurso.
- Você precisa da chave e do ponto de extremidade do recurso que você criou para conectar seu aplicativo ao Azure Vision nas Ferramentas Foundry.
- Você pode usar o tipo de preço gratuito (
F0) para experimentar o serviço e atualizar posteriormente para uma camada paga para produção.
Criar variáveis de ambiente
Neste exemplo, escreva suas credenciais em variáveis de ambiente no computador local que executa o aplicativo.
Vá para o portal do Azure. Se o recurso que você criou na seção Pré-requisitos for implantado com êxito, selecione Ir para o recurso nas próximas etapas. Você pode encontrar sua chave e seu ponto de extremidade no Gerenciamento de Recursos, na página Chaves e Ponto de Extremidade do recurso Face. Sua chave de recurso não é a mesma que sua ID de assinatura Azure.
Para definir a variável de ambiente para sua chave e ponto de extremidade, abra uma janela do console e siga as instruções para seu sistema operacional e ambiente de desenvolvimento.
- Para definir a
VISION_KEYvariável de ambiente, substitua<your_key>por uma das chaves do recurso. - Para definir a variável de
VISION_ENDPOINTambiente, substitua<your_endpoint>pelo ponto de extremidade do recurso.
Importante
Recomendamos a autenticação Microsoft Entra ID com identidades gerenciadas para os recursos Azure para evitar armazenar credenciais nos seus aplicativos que são executados na nuvem.
Use chaves de API com cuidado. Não inclua a chave de API diretamente em seu código e nunca a publique publicamente. Se estiver usando chaves de API, armazene-as com segurança em Azure Key Vault, gire as chaves regularmente e restrinja o acesso a Azure Key Vault usando controle de acesso baseado em função e restrições de acesso à rede. Para obter mais informações sobre como usar chaves de API com segurança em seus aplicativos, consulte as chaves API com Azure Key Vault.
Para obter mais informações sobre a segurança dos serviços de IA, consulte Autenticar solicitações para Serviços de IA do Azure.
setx VISION_KEY <your_key>
setx VISION_ENDPOINT <your_endpoint>
Depois de adicionar as variáveis de ambiente, talvez seja necessário reiniciar todos os programas em execução que lerão as variáveis de ambiente, incluindo a janela do console.
Analisar imagem
Crie um novo projeto Gradle.
Em uma janela do console (como cmd, PowerShell ou Bash), crie um novo diretório para seu aplicativo e navegue até ele.
mkdir myapp && cd myappExecute o comando
gradle inita partir do seu diretório de trabalho. Esse comando cria arquivos de build essenciais para o Gradle, incluindo build.gradle.kts, que é usado em runtime para criar e configurar seu aplicativo.gradle init --type basicQuando solicitado a escolher uma DSL, selecione Kotlin.
Instale a biblioteca de clientes.
Este início rápido usa o gerenciador de dependências do Gradle. Você pode encontrar a biblioteca de clientes e as informações para outros gerentes de dependência no Repositório Central do Maven.
Localize build.gradle.kts e abra-o com seu IDE ou editor de texto preferido. Em seguida, copie e cole a seguinte configuração de build no arquivo. Essa configuração define o projeto como um aplicativo Java cujo ponto de entrada é a classe
ImageAnalysisQuickstart. Importa a biblioteca Azure Vision.plugins { java application } application { mainClass.set("ImageAnalysisQuickstart") } repositories { mavenCentral() } dependencies { implementation(group = "com.microsoft.azure.cognitiveservices", name = "azure-cognitiveservices-computervision", version = "1.0.9-beta") }Crie um arquivo de Java.
No diretório de trabalho, execute o seguinte comando para criar uma pasta de origem do projeto:
mkdir -p src/main/javaNavegue até a nova pasta e crie um arquivo chamado ImageAnalysisQuickstart.java.
Abra ImageAnalysisQuickstart.java em seu editor ou IDE preferencial e cole no código a seguir.
import com.microsoft.azure.cognitiveservices.vision.computervision.*; import com.microsoft.azure.cognitiveservices.vision.computervision.implementation.ComputerVisionImpl; import com.microsoft.azure.cognitiveservices.vision.computervision.models.*; import java.io.*; import java.nio.file.Files; import java.util.ArrayList; import java.util.List; import java.util.UUID; public class ImageAnalysisQuickstart { // Use environment variables static String key = System.getenv("VISION_KEY"); static String endpoint = System.getenv("VISION_ENDPOINT"); public static void main(String[] args) { System.out.println("\nAzure Cognitive Services Computer Vision - Java Quickstart Sample"); // Create an authenticated Computer Vision client. ComputerVisionClient compVisClient = Authenticate(key, endpoint); // Analyze local and remote images AnalyzeRemoteImage(compVisClient); } public static ComputerVisionClient Authenticate(String key, String endpoint){ return ComputerVisionManager.authenticate(key).withEndpoint(endpoint); } public static void AnalyzeRemoteImage(ComputerVisionClient compVisClient) { /* * Analyze an image from a URL: * * Set a string variable equal to the path of a remote image. */ String pathToRemoteImage = "https://github.com/Azure-Samples/cognitive-services-sample-data-files/raw/master/ComputerVision/Images/faces.jpg"; // This list defines the features to be extracted from the image. List<VisualFeatureTypes> featuresToExtractFromRemoteImage = new ArrayList<>(); featuresToExtractFromRemoteImage.add(VisualFeatureTypes.TAGS); System.out.println("\n\nAnalyzing an image from a URL ..."); try { // Call the Computer Vision service and tell it to analyze the loaded image. ImageAnalysis analysis = compVisClient.computerVision().analyzeImage().withUrl(pathToRemoteImage) .withVisualFeatures(featuresToExtractFromRemoteImage).execute(); // Display image tags and confidence values. System.out.println("\nTags: "); for (ImageTag tag : analysis.tags()) { System.out.printf("\'%s\' with confidence %f\n", tag.name(), tag.confidence()); } } catch (Exception e) { System.out.println(e.getMessage()); e.printStackTrace(); } } // END - Analyze an image from a URL. }Navegue de volta para a pasta raiz do projeto e crie o aplicativo com:
gradle buildExecute-o com o seguinte comando:
gradle run
Saída
A saída da operação deve ser semelhante ao exemplo a seguir.
Azure Vision - Java Quickstart Sample
Analyzing an image from a URL ...
Tags:
'person' with confidence 0.998895
'human face' with confidence 0.997437
'smile' with confidence 0.991973
'outdoor' with confidence 0.985962
'happy' with confidence 0.969785
'clothing' with confidence 0.961570
'friendship' with confidence 0.946441
'tree' with confidence 0.917331
'female person' with confidence 0.890976
'girl' with confidence 0.888741
'social group' with confidence 0.872044
'posing' with confidence 0.865493
'adolescent' with confidence 0.857371
'love' with confidence 0.852553
'laugh' with confidence 0.850097
'people' with confidence 0.849922
'lady' with confidence 0.844540
'woman' with confidence 0.818172
'group' with confidence 0.792975
'wedding' with confidence 0.615252
'dress' with confidence 0.517169
Limpar recursos
Se você quiser limpar e remover uma assinatura do Foundry Tools, poderá excluir o recurso ou o grupo de recursos. Excluir o grupo de recursos também exclui outros recursos associados a ele.
Próxima etapa
Neste início rápido, você aprendeu a instalar a biblioteca de clientes da Análise de Imagem e a fazer chamadas básicas de análise de imagem. Em seguida, saiba mais sobre os recursos da API Analyze Image.
Use a biblioteca cliente de Análise de Imagem para JavaScript para analisar uma imagem remota quanto a tags de conteúdo.
Dica
Você também pode analisar uma imagem local. Consulte os métodos ComputerVisionClient , como describeImageInStream. Ou consulte o código sample em GitHub para cenários que envolvem imagens locais.
Dica
A API analisar imagem pode fazer muitas operações diferentes além de gerar marcas de imagem. Consulte o guia de instruções da Análise de Imagem para obter exemplos que mostram todos os recursos disponíveis.
Documentação de referência | Pacote (npm) | Amostras
Pré-requisitos
- Uma assinatura Azure. Você pode criar um gratuitamente.
- A versão atual do Node.js.
- Depois de ter sua assinatura do Azure, crie um recurso Pesquisa Visual Computacional no portal do Azure para obter sua chave e ponto de extremidade. Depois que ele for implantado, selecione Ir para o recurso.
- Você precisa da chave e do endpoint do recurso que você criar para conectar seu aplicativo ao Azure Vision nas Ferramentas da Foundry.
- Você pode usar o tipo de preço gratuito (
F0) para experimentar o serviço e atualizar posteriormente para uma camada paga para produção.
Criar variáveis de ambiente
Neste exemplo, escreva suas credenciais em variáveis de ambiente no computador local que executa o aplicativo.
Vá para o portal do Azure. Se o recurso que você criou na seção Pré-requisitos for implantado com êxito, selecione Ir para o recurso nas próximas etapas. Você pode encontrar sua chave e seu ponto de extremidade no Gerenciamento de Recursos, na página Chaves e Ponto de Extremidade do recurso Face. Sua chave de recurso não é a mesma que sua ID de assinatura Azure.
Para definir a variável de ambiente para sua chave e ponto de extremidade, abra uma janela do console e siga as instruções para seu sistema operacional e ambiente de desenvolvimento.
- Para definir a
VISION_KEYvariável de ambiente, substitua<your_key>por uma das chaves do recurso. - Para definir a variável de
VISION_ENDPOINTambiente, substitua<your_endpoint>pelo ponto de extremidade do recurso.
Importante
Recomendamos a autenticação Microsoft Entra ID com identidades gerenciadas para os recursos Azure para evitar armazenar credenciais nos seus aplicativos que são executados na nuvem.
Use chaves de API com cuidado. Não inclua a chave de API diretamente em seu código e nunca a publique publicamente. Se estiver usando chaves de API, armazene-as com segurança em Azure Key Vault, gire as chaves regularmente e restrinja o acesso a Azure Key Vault usando controle de acesso baseado em função e restrições de acesso à rede. Para obter mais informações sobre como usar chaves de API com segurança em seus aplicativos, consulte as chaves API com Azure Key Vault.
Para obter mais informações sobre a segurança dos serviços de IA, consulte Autenticar solicitações para Serviços de IA do Azure.
setx VISION_KEY <your_key>
setx VISION_ENDPOINT <your_endpoint>
Depois de adicionar as variáveis de ambiente, talvez seja necessário reiniciar todos os programas em execução que lerão as variáveis de ambiente, incluindo a janela do console.
Analisar imagem
Criar um novo aplicativo Node.js
Em uma janela do console (como cmd, PowerShell ou Bash), crie um novo diretório para seu aplicativo e navegue até ele.
mkdir myapp && cd myappExecute o comando
npm initpara criar um aplicativo Node.js com um arquivo package.json.npm initInstalar a biblioteca de clientes
Instale o pacote npm
ms-rest-azuree@azure/cognitiveservices-computervision.npm install @azure/cognitiveservices-computervisionInstale também o módulo assíncrono:
npm install asyncO arquivo
package.jsondo aplicativo é atualizado com as dependências.Criar um novo arquivo, index.js.
Abra index.js em um editor de texto e cole no código a seguir.
'use strict'; const async = require('async'); const fs = require('fs'); const https = require('https'); const path = require("path"); const createReadStream = require('fs').createReadStream const sleep = require('util').promisify(setTimeout); const ComputerVisionClient = require('@azure/cognitiveservices-computervision').ComputerVisionClient; const ApiKeyCredentials = require('@azure/ms-rest-js').ApiKeyCredentials; /** * AUTHENTICATE * This single client is used for all examples. */ const key = process.env.VISION_KEY; const endpoint = process.env.VISION_ENDPOINT; const computerVisionClient = new ComputerVisionClient( new ApiKeyCredentials({ inHeader: { 'Ocp-Apim-Subscription-Key': key } }), endpoint); /** * END - Authenticate */ function computerVision() { async.series([ async function () { /** * DETECT TAGS * Detects tags for an image, which returns: * all objects in image and confidence score. */ console.log('-------------------------------------------------'); console.log('DETECT TAGS'); console.log(); // Image of different kind of dog. const tagsURL = 'https://github.com/Azure-Samples/cognitive-services-sample-data-files/blob/master/ComputerVision/Images/house.jpg'; // Analyze URL image console.log('Analyzing tags in image...', tagsURL.split('/').pop()); const tags = (await computerVisionClient.analyzeImage(tagsURL, { visualFeatures: ['Tags'] })).tags; console.log(`Tags: ${formatTags(tags)}`); // Format tags for display function formatTags(tags) { return tags.map(tag => (`${tag.name} (${tag.confidence.toFixed(2)})`)).join(', '); } /** * END - Detect Tags */ console.log(); console.log('-------------------------------------------------'); console.log('End of quickstart.'); }, function () { return new Promise((resolve) => { resolve(); }) } ], (err) => { throw (err); }); } computerVision();Execute o aplicativo com o
nodecomando no arquivo de início rápido.node index.js
Saída
A saída da operação deve ser semelhante ao exemplo a seguir.
-------------------------------------------------
DETECT TAGS
Analyzing tags in image... sample16.png
Tags: grass (1.00), dog (0.99), mammal (0.99), animal (0.99), dog breed (0.99), pet (0.97), outdoor (0.97), companion dog (0.91), small greek domestic dog (0.90), golden retriever (0.89), labrador retriever (0.87), puppy (0.87), ancient dog breeds (0.85), field (0.80), retriever (0.68), brown (0.66)
-------------------------------------------------
End of quickstart.
Limpar recursos
Se você quiser limpar e remover uma assinatura do Foundry Tools, poderá excluir o recurso ou o grupo de recursos. Excluir o grupo de recursos também exclui outros recursos associados a ele.
Próxima etapa
Neste início rápido, você aprendeu a instalar a biblioteca de clientes da Análise de Imagem e a fazer chamadas básicas de análise de imagem. Em seguida, saiba mais sobre os recursos da API Analyze Image.
Use a API REST para Análise de Imagem para analisar uma imagem por etiquetas.
Dica
A API analisar imagem pode fazer muitas operações diferentes além de gerar marcas de imagem. Consulte o guia de instruções da Análise de Imagem para obter exemplos que mostram todos os recursos disponíveis.
Nota
Este início rápido usa comandos cURL para chamar a API REST. Você também pode chamar a API REST usando uma linguagem de programação. Consulte os exemplos de GitHub para obter exemplos em C#, Python, Java e JavaScript.
Pré-requisitos
- Uma assinatura Azure. Você pode criar um gratuitamente.
- Depois de ter sua assinatura do Azure, crie um recurso Pesquisa Visual Computacional no portal do Azure para obter sua chave e ponto de extremidade. Depois que ele for implantado, selecione Ir para o recurso.
- Você precisa da chave e do endpoint do recurso que você criar para conectar seu aplicativo ao Azure Vision nas Ferramentas da Foundry.
- Você pode usar o tipo de preço gratuito (
F0) para experimentar o serviço e atualizar posteriormente para uma camada paga para produção.
- cURL instalado.
Analisar uma imagem
Para analisar uma imagem para vários recursos visuais, execute as seguintes etapas:
Copie o comando a seguir em um editor de texto.
curl.exe -H "Ocp-Apim-Subscription-Key: <yourKey>" -H "Content-Type: application/json" "https://westcentralus.api.cognitive.microsoft.com/vision/v3.2/analyze?visualFeatures=Tags" -d "{'url':'https://learn.microsoft.com/azure/ai-services/computer-vision/media/quickstarts/presentation.png'}"Faça as seguintes alterações no comando quando necessário:
- Substitua o valor de
<yourKey>pela chave do recurso de Pesquisa Visual Computacional. - Substitua a primeira parte da URL da solicitação (
westcentralus.api.cognitive.microsoft.com) por sua própria URL de ponto de extremidade.Nota
Novos recursos criados após 1º de julho de 2019 usarão nomes de subdomínio personalizados. Para obter mais informações e uma lista completa de pontos de extremidade regionais, consulte Nomes de Subdomínio Personalizados para Ferramentas de Fundição.
- Opcionalmente, altere a URL da imagem no corpo da solicitação (
https://learn.microsoft.com/azure/ai-services/computer-vision/media/quickstarts/presentation.png) para a URL de uma imagem diferente a ser analisada.
- Substitua o valor de
Abra uma janela do prompt de comando.
Cole o comando editado
curldo editor de texto na janela do prompt de comando e execute o comando.
Examinar a resposta
Uma resposta bem-sucedida é retornada no formato JSON. O aplicativo de exemplo analisa e exibe uma resposta bem-sucedida na janela do prompt de comando, semelhante ao exemplo a seguir:
{
"tags":[
{
"name":"text",
"confidence":0.9992657899856567
},
{
"name":"post-it note",
"confidence":0.9879657626152039
},
{
"name":"handwriting",
"confidence":0.9730165004730225
},
{
"name":"rectangle",
"confidence":0.8658561706542969
},
{
"name":"paper product",
"confidence":0.8561884760856628
},
{
"name":"purple",
"confidence":0.5961999297142029
}
],
"requestId":"2788adfc-8cfb-43a5-8fd6-b3a9ced35db2",
"metadata":{
"height":945,
"width":1000,
"format":"Jpeg"
},
"modelVersion":"2021-05-01"
}
Próxima etapa
Neste início rápido, você aprendeu a fazer chamadas básicas de análise de imagem usando a API REST. Em seguida, saiba mais sobre os recursos da API Analyze Image.