Início Rápido: Análise de Imagem

Cuidado

O serviço de Análise de Imagem 4.0 no Azure Vision in Foundry Tools foi preterido e será desativado em 25 de setembro de 2028, após o qual as chamadas feitas ao serviço falharão. Recomendamos que você alterne para uma das alternativas disponíveis descritas no guia de Migração.

Este artigo explica como configurar um script básico de marcação de imagem usando a API REST de Análise de Imagem ou bibliotecas de cliente. O serviço Analisar Imagem fornece algoritmos de IA para processar imagens e retornar informações sobre seus recursos visuais. Siga estas etapas para instalar um pacote em seu aplicativo e experimentar o código de exemplo.

Use a biblioteca de cliente de Análise de Imagem para C# para analisar uma imagem e obter tags de conteúdo. Este início rápido define um método, AnalyzeImageUrlque usa o objeto cliente para analisar uma imagem remota e imprimir os resultados.

Documentação de referência | Código-fonte da biblioteca | Pacote (NuGet) | Exemplos

Dica

Você também pode analisar uma imagem local. Consulte os métodos ComputerVisionClient , como AnalyzeImageInStreamAsync. Ou veja o código de exemplo em GitHub para cenários que envolvem imagens locais.

Dica

A API analisar imagem pode fazer muitas operações diferentes além de gerar marcas de imagem. Consulte o guia de instruções da Análise de Imagem para obter exemplos que mostram todos os recursos disponíveis.

Pré-requisitos

  • Uma assinatura Azure. Você pode criar um gratuitamente.
  • A versão Visual Studio IDE ou atual do .NET Core.
  • Depois de ter sua assinatura do Azure, crie um recurso Pesquisa Visual Computacional no portal do Azure para obter sua chave e ponto de extremidade. Depois que ele for implantado, selecione Ir para o recurso.
    • Você precisa da chave e do endpoint do recurso que você criar para conectar seu aplicativo ao Azure Vision nas Ferramentas da Foundry.
    • Você pode usar o tipo de preço gratuito (F0) para experimentar o serviço e atualizar posteriormente para uma camada paga para produção.

Criar variáveis de ambiente

Neste exemplo, escreva suas credenciais em variáveis de ambiente no computador local que executa o aplicativo.

Vá para o portal do Azure. Se o recurso que você criou na seção Pré-requisitos for implantado com êxito, selecione Ir para o recurso nas próximas etapas. Você pode encontrar sua chave e seu ponto de extremidade no Gerenciamento de Recursos, na página Chaves e Ponto de Extremidade do recurso Face. Sua chave de recurso não é a mesma que sua ID de assinatura Azure.

Para definir a variável de ambiente para sua chave e ponto de extremidade, abra uma janela do console e siga as instruções para seu sistema operacional e ambiente de desenvolvimento.

  • Para definir a VISION_KEY variável de ambiente, substitua <your_key> por uma das chaves do recurso.
  • Para definir a variável de VISION_ENDPOINT ambiente, substitua <your_endpoint> pelo ponto de extremidade do recurso.

Importante

Recomendamos a autenticação Microsoft Entra ID com identidades gerenciadas para os recursos Azure para evitar armazenar credenciais nos seus aplicativos que são executados na nuvem.

Use chaves de API com cuidado. Não inclua a chave de API diretamente em seu código e nunca a publique publicamente. Se estiver usando chaves de API, armazene-as com segurança em Azure Key Vault, gire as chaves regularmente e restrinja o acesso a Azure Key Vault usando controle de acesso baseado em função e restrições de acesso à rede. Para obter mais informações sobre como usar chaves de API com segurança em seus aplicativos, consulte as chaves API com Azure Key Vault.

Para obter mais informações sobre a segurança dos serviços de IA, consulte Autenticar solicitações para Serviços de IA do Azure.

setx VISION_KEY <your_key>
setx VISION_ENDPOINT <your_endpoint>

Depois de adicionar as variáveis de ambiente, talvez seja necessário reiniciar todos os programas em execução que lerão as variáveis de ambiente, incluindo a janela do console.

Analisar imagem

  1. Crie um novo aplicativo C#.

    Usando Visual Studio, crie um novo aplicativo .NET Core.

    Instalar a biblioteca de clientes

    Depois de criar um novo projeto, instale a biblioteca de clientes clicando com o botão direito do mouse na solução de projeto no Gerenciador de Soluções e selecionando Manage NuGet Packages. No gerenciador de pacotes que se abre, selecione Browse, marque Include prerelease e pesquise Microsoft.Azure.CognitiveServices.Vision.ComputerVision. Selecione a versão 7.0.0e, em seguida, Instale.

  2. No diretório do projeto, abra o arquivo Program.cs em seu editor ou IDE preferencial. Cole o seguinte código:

    using System;
    using System.Collections.Generic;
    using Microsoft.Azure.CognitiveServices.Vision.ComputerVision;
    using Microsoft.Azure.CognitiveServices.Vision.ComputerVision.Models;
    using System.Threading.Tasks;
    using System.IO;
    using Newtonsoft.Json;
    using Newtonsoft.Json.Linq;
    using System.Threading;
    using System.Linq;
    
    namespace ComputerVisionQuickstart
    {
        class Program
        {
            // Add your Computer Vision key and endpoint
            static string key = Environment.GetEnvironmentVariable("VISION_KEY");
            static string endpoint = Environment.GetEnvironmentVariable("VISION_ENDPOINT");
    
            // URL image used for analyzing an image (image of puppy)
            private const string ANALYZE_URL_IMAGE = "https://raw.githubusercontent.com/Azure-Samples/cognitive-services-sample-data-files/master/ComputerVision/Images/landmark.jpg";
    
            static void Main(string[] args)
            {
                Console.WriteLine("Azure Cognitive Services Computer Vision - .NET quickstart example");
                Console.WriteLine();
    
                // Create a client
                ComputerVisionClient client = Authenticate(endpoint, key);
    
                // Analyze an image to get features and other properties.
                AnalyzeImageUrl(client, ANALYZE_URL_IMAGE).Wait();
            }
    
            /*
             * AUTHENTICATE
             * Creates a Computer Vision client used by each example.
             */
            public static ComputerVisionClient Authenticate(string endpoint, string key)
            {
                ComputerVisionClient client =
                  new ComputerVisionClient(new ApiKeyServiceClientCredentials(key))
                  { Endpoint = endpoint };
                return client;
            }
           
            public static async Task AnalyzeImageUrl(ComputerVisionClient client, string imageUrl)
            {
                Console.WriteLine("----------------------------------------------------------");
                Console.WriteLine("ANALYZE IMAGE - URL");
                Console.WriteLine();
    
                // Creating a list that defines the features to be extracted from the image. 
    
                List<VisualFeatureTypes?> features = new List<VisualFeatureTypes?>()
                {
                    VisualFeatureTypes.Tags
                };
    
                Console.WriteLine($"Analyzing the image {Path.GetFileName(imageUrl)}...");
                Console.WriteLine();
                // Analyze the URL image 
                ImageAnalysis results = await client.AnalyzeImageAsync(imageUrl, visualFeatures: features);
    
                // Image tags and their confidence score
                Console.WriteLine("Tags:");
                foreach (var tag in results.Tags)
                {
                    Console.WriteLine($"{tag.Name} {tag.Confidence}");
                }
                Console.WriteLine();
            }
        }
    }
    

    Importante

    Recomendamos a autenticação Microsoft Entra ID com identidades gerenciadas para os recursos Azure para evitar armazenar credenciais nos seus aplicativos que são executados na nuvem.

    Use chaves de API com cuidado. Não inclua a chave de API diretamente em seu código e nunca a publique publicamente. Se estiver usando chaves de API, armazene-as com segurança em Azure Key Vault, gire as chaves regularmente e restrinja o acesso a Azure Key Vault usando controle de acesso baseado em função e restrições de acesso à rede. Para obter mais informações sobre como usar chaves de API com segurança em seus aplicativos, consulte as chaves API com Azure Key Vault.

    Para obter mais informações sobre a segurança dos serviços de IA, consulte Autenticar solicitações para Serviços de IA do Azure.

  3. Executar o aplicativo

    Execute o aplicativo clicando no botão Depurar na parte superior da janela do IDE.


Saída

A saída da operação deve ser semelhante ao exemplo a seguir.

----------------------------------------------------------
ANALYZE IMAGE - URL

Analyzing the image sample16.png...

Tags:
grass 0.9957543611526489
dog 0.9939157962799072
mammal 0.9928356409072876
animal 0.9918001890182495
dog breed 0.9890419244766235
pet 0.974603533744812
outdoor 0.969241738319397
companion dog 0.906731367111206
small greek domestic dog 0.8965123891830444
golden retriever 0.8877675533294678
labrador retriever 0.8746421337127686
puppy 0.872604250907898
ancient dog breeds 0.8508287668228149
field 0.8017748594284058
retriever 0.6837497353553772
brown 0.6581960916519165

Limpar recursos

Se você quiser limpar e remover uma assinatura do Foundry Tools, poderá excluir o recurso ou o grupo de recursos. Excluir o grupo de recursos também exclui outros recursos associados a ele.

Neste início rápido, você aprendeu a instalar a biblioteca de clientes da Análise de Imagem e a fazer chamadas básicas de análise de imagem. Em seguida, saiba mais sobre os recursos da API de Análise de Imagem.

Use a biblioteca cliente de Análise de Imagem para Python para analisar uma imagem remota para tags de conteúdo.

Dica

Você também pode analisar uma imagem local. Consulte os métodos ComputerVisionClientOperationsMixin , como analyze_image_in_stream. Ou consulte o código sample em GitHub para cenários que envolvem imagens locais.

Dica

A API analisar imagem pode fazer muitas operações diferentes além de gerar marcas de imagem. Consulte o guia de instruções da Análise de Imagem para obter exemplos que mostram todos os recursos disponíveis.

Documentação de referência | Código-fonte da biblioteca | Pacote (PiPy) | Exemplos

Pré-requisitos

  • Uma assinatura Azure. Você pode criar um gratuitamente.
  • Python 3.x.
    • Sua instalação Python deve incluir pip. Você pode verificar se o pip foi instalado executando pip --version na linha de comando. Para obter o pip, instale a versão mais recente do Python.
  • Depois de ter sua assinatura do Azure, crie um recurso Pesquisa Visual Computacional no portal do Azure para obter sua chave e ponto de extremidade. Depois que ele for implantado, selecione Ir para o recurso.
    • Você precisa da chave e do endpoint do recurso que você criar para conectar seu aplicativo ao Azure Vision nas Ferramentas da Foundry.
    • Você pode usar o tipo de preço gratuito (F0) para experimentar o serviço e atualizar posteriormente para uma camada paga para produção.

Criar variáveis de ambiente

Neste exemplo, escreva suas credenciais em variáveis de ambiente no computador local que executa o aplicativo.

Vá para o portal do Azure. Se o recurso que você criou na seção Pré-requisitos for implantado com êxito, selecione Ir para o recurso nas próximas etapas. Você pode encontrar sua chave e seu ponto de extremidade no Gerenciamento de Recursos, na página Chaves e Ponto de Extremidade do recurso Face. Sua chave de recurso não é a mesma que sua ID de assinatura Azure.

Para definir a variável de ambiente para sua chave e ponto de extremidade, abra uma janela do console e siga as instruções para seu sistema operacional e ambiente de desenvolvimento.

  • Para definir a VISION_KEY variável de ambiente, substitua <your_key> por uma das chaves do recurso.
  • Para definir a variável de VISION_ENDPOINT ambiente, substitua <your_endpoint> pelo ponto de extremidade do recurso.

Importante

Recomendamos a autenticação Microsoft Entra ID com identidades gerenciadas para os recursos Azure para evitar armazenar credenciais nos seus aplicativos que são executados na nuvem.

Use chaves de API com cuidado. Não inclua a chave de API diretamente em seu código e nunca a publique publicamente. Se estiver usando chaves de API, armazene-as com segurança em Azure Key Vault, gire as chaves regularmente e restrinja o acesso a Azure Key Vault usando controle de acesso baseado em função e restrições de acesso à rede. Para obter mais informações sobre como usar chaves de API com segurança em seus aplicativos, consulte as chaves API com Azure Key Vault.

Para obter mais informações sobre a segurança dos serviços de IA, consulte Autenticar solicitações para Serviços de IA do Azure.

setx VISION_KEY <your_key>
setx VISION_ENDPOINT <your_endpoint>

Depois de adicionar as variáveis de ambiente, talvez seja necessário reiniciar todos os programas em execução que lerão as variáveis de ambiente, incluindo a janela do console.

Analisar imagem

  1. Instale a biblioteca de clientes.

    Você pode instalar a biblioteca de clientes com:

    pip install --upgrade azure-cognitiveservices-vision-computervision
    

    Instale também a biblioteca Pillow.

    pip install pillow
    
  2. Crie um novo aplicativo Python.

    Crie um novo arquivo de Python. Você pode nomeá-lo quickstart-file.py, por exemplo.

  3. Abra quickstart-file.py em um editor de texto ou IDE e cole no código a seguir.

    from azure.cognitiveservices.vision.computervision import ComputerVisionClient
    from azure.cognitiveservices.vision.computervision.models import OperationStatusCodes
    from azure.cognitiveservices.vision.computervision.models import VisualFeatureTypes
    from msrest.authentication import CognitiveServicesCredentials
    
    from array import array
    import os
    from PIL import Image
    import sys
    import time
    
    '''
    Authenticate
    Authenticates your credentials and creates a client.
    '''
    subscription_key = os.environ["VISION_KEY"]
    endpoint = os.environ["VISION_ENDPOINT"]
    
    computervision_client = ComputerVisionClient(endpoint, CognitiveServicesCredentials(subscription_key))
    '''
    END - Authenticate
    '''
    
    '''
    Quickstart variables
    These variables are shared by several examples
    '''
    # Images used for the examples: Describe an image, Categorize an image, Tag an image, 
    # Detect faces, Detect adult or racy content, Detect the color scheme, 
    # Detect domain-specific content, Detect image types, Detect objects
    images_folder = os.path.join (os.path.dirname(os.path.abspath(__file__)), "images")
    remote_image_url = "https://raw.githubusercontent.com/Azure-Samples/cognitive-services-sample-data-files/master/ComputerVision/Images/landmark.jpg"
    '''
    END - Quickstart variables
    '''
    
    
    '''
    Tag an Image - remote
    This example returns a tag (key word) for each thing in the image.
    '''
    print("===== Tag an image - remote =====")
    # Call API with remote image
    tags_result_remote = computervision_client.tag_image(remote_image_url )
    
    # Print results with confidence score
    print("Tags in the remote image: ")
    if (len(tags_result_remote.tags) == 0):
        print("No tags detected.")
    else:
        for tag in tags_result_remote.tags:
            print("'{}' with confidence {:.2f}%".format(tag.name, tag.confidence * 100))
    print()
    '''
    END - Tag an Image - remote
    '''
    print("End of Computer Vision quickstart.")
    
  4. Execute o aplicativo usando o python comando em seu arquivo de início rápido.

    python quickstart-file.py
    

Saída

A saída da operação deve ser semelhante ao exemplo a seguir.

===== Tag an image - remote =====
Tags in the remote image:
'outdoor' with confidence 99.00%
'building' with confidence 98.81%
'sky' with confidence 98.21%
'stadium' with confidence 98.17%
'ancient rome' with confidence 96.16%
'ruins' with confidence 95.04%
'amphitheatre' with confidence 93.99%
'ancient roman architecture' with confidence 92.65%
'historic site' with confidence 89.55%
'ancient history' with confidence 89.54%
'history' with confidence 86.72%
'archaeological site' with confidence 84.41%
'travel' with confidence 65.85%
'large' with confidence 61.02%
'city' with confidence 56.57%

End of Azure Vision quickstart.

Limpar recursos

Se você quiser limpar e remover uma assinatura do Foundry Tools, poderá excluir o recurso ou o grupo de recursos. Excluir o grupo de recursos também exclui outros recursos associados a ele.

Próxima etapa

Neste início rápido, você aprendeu a instalar a biblioteca de clientes da Análise de Imagem e a fazer chamadas básicas de análise de imagem. Em seguida, saiba mais sobre os recursos da API Analyze Image.

Use a biblioteca cliente para Análise de Imagem em Java para analisar uma imagem remota em busca de tags, descrição textual, rostos, conteúdo adulto e muito mais.

Dica

Você também pode analisar uma imagem local. Consulte os métodos ComputerVision , como AnalyzeImage. Ou consulte o código sample em GitHub para cenários que envolvem imagens locais.

Dica

A API analisar imagem pode fazer muitas operações diferentes além de gerar marcas de imagem. Consulte o guia de instruções da Análise de Imagem para obter exemplos que mostram todos os recursos disponíveis.

Reference documentation | Library source code |Artifact (Maven) | Samples

Pré-requisitos

  • Uma assinatura Azure. Você pode criar um gratuitamente.
  • A versão atual do Java Development Kit (JDK).
  • A ferramenta de construção Gradle ou outro gerenciador de dependências.
  • Depois de ter sua assinatura do Azure, crie um recurso Pesquisa Visual Computacional no portal do Azure para obter sua chave e ponto de extremidade. Depois que ele for implantado, selecione Ir para o recurso.
    • Você precisa da chave e do ponto de extremidade do recurso que você criou para conectar seu aplicativo ao Azure Vision nas Ferramentas Foundry.
    • Você pode usar o tipo de preço gratuito (F0) para experimentar o serviço e atualizar posteriormente para uma camada paga para produção.

Criar variáveis de ambiente

Neste exemplo, escreva suas credenciais em variáveis de ambiente no computador local que executa o aplicativo.

Vá para o portal do Azure. Se o recurso que você criou na seção Pré-requisitos for implantado com êxito, selecione Ir para o recurso nas próximas etapas. Você pode encontrar sua chave e seu ponto de extremidade no Gerenciamento de Recursos, na página Chaves e Ponto de Extremidade do recurso Face. Sua chave de recurso não é a mesma que sua ID de assinatura Azure.

Para definir a variável de ambiente para sua chave e ponto de extremidade, abra uma janela do console e siga as instruções para seu sistema operacional e ambiente de desenvolvimento.

  • Para definir a VISION_KEY variável de ambiente, substitua <your_key> por uma das chaves do recurso.
  • Para definir a variável de VISION_ENDPOINT ambiente, substitua <your_endpoint> pelo ponto de extremidade do recurso.

Importante

Recomendamos a autenticação Microsoft Entra ID com identidades gerenciadas para os recursos Azure para evitar armazenar credenciais nos seus aplicativos que são executados na nuvem.

Use chaves de API com cuidado. Não inclua a chave de API diretamente em seu código e nunca a publique publicamente. Se estiver usando chaves de API, armazene-as com segurança em Azure Key Vault, gire as chaves regularmente e restrinja o acesso a Azure Key Vault usando controle de acesso baseado em função e restrições de acesso à rede. Para obter mais informações sobre como usar chaves de API com segurança em seus aplicativos, consulte as chaves API com Azure Key Vault.

Para obter mais informações sobre a segurança dos serviços de IA, consulte Autenticar solicitações para Serviços de IA do Azure.

setx VISION_KEY <your_key>
setx VISION_ENDPOINT <your_endpoint>

Depois de adicionar as variáveis de ambiente, talvez seja necessário reiniciar todos os programas em execução que lerão as variáveis de ambiente, incluindo a janela do console.

Analisar imagem

  1. Crie um novo projeto Gradle.

    Em uma janela do console (como cmd, PowerShell ou Bash), crie um novo diretório para seu aplicativo e navegue até ele.

    mkdir myapp && cd myapp
    

    Execute o comando gradle init a partir do seu diretório de trabalho. Esse comando cria arquivos de build essenciais para o Gradle, incluindo build.gradle.kts, que é usado em runtime para criar e configurar seu aplicativo.

    gradle init --type basic
    

    Quando solicitado a escolher uma DSL, selecione Kotlin.

  2. Instale a biblioteca de clientes.

    Este início rápido usa o gerenciador de dependências do Gradle. Você pode encontrar a biblioteca de clientes e as informações para outros gerentes de dependência no Repositório Central do Maven.

    Localize build.gradle.kts e abra-o com seu IDE ou editor de texto preferido. Em seguida, copie e cole a seguinte configuração de build no arquivo. Essa configuração define o projeto como um aplicativo Java cujo ponto de entrada é a classe ImageAnalysisQuickstart. Importa a biblioteca Azure Vision.

    plugins {
        java
        application
    }
    application { 
        mainClass.set("ImageAnalysisQuickstart")
    }
    repositories {
        mavenCentral()
    }
    dependencies {
        implementation(group = "com.microsoft.azure.cognitiveservices", name = "azure-cognitiveservices-computervision", version = "1.0.9-beta")
    }
    
  3. Crie um arquivo de Java.

    No diretório de trabalho, execute o seguinte comando para criar uma pasta de origem do projeto:

    mkdir -p src/main/java
    

    Navegue até a nova pasta e crie um arquivo chamado ImageAnalysisQuickstart.java.

  4. Abra ImageAnalysisQuickstart.java em seu editor ou IDE preferencial e cole no código a seguir.

    import com.microsoft.azure.cognitiveservices.vision.computervision.*;
    import com.microsoft.azure.cognitiveservices.vision.computervision.implementation.ComputerVisionImpl;
    import com.microsoft.azure.cognitiveservices.vision.computervision.models.*;
    
    import java.io.*;
    import java.nio.file.Files;
    
    import java.util.ArrayList;
    import java.util.List;
    import java.util.UUID;
    
    public class ImageAnalysisQuickstart {
    
        // Use environment variables
        static String key = System.getenv("VISION_KEY");
        static String endpoint = System.getenv("VISION_ENDPOINT");
    
        public static void main(String[] args) {
            
            System.out.println("\nAzure Cognitive Services Computer Vision - Java Quickstart Sample");
    
            // Create an authenticated Computer Vision client.
            ComputerVisionClient compVisClient = Authenticate(key, endpoint); 
    
            // Analyze local and remote images
            AnalyzeRemoteImage(compVisClient);
    
        }
    
        public static ComputerVisionClient Authenticate(String key, String endpoint){
            return ComputerVisionManager.authenticate(key).withEndpoint(endpoint);
        }
    
    
        public static void AnalyzeRemoteImage(ComputerVisionClient compVisClient) {
            /*
             * Analyze an image from a URL:
             *
             * Set a string variable equal to the path of a remote image.
             */
            String pathToRemoteImage = "https://github.com/Azure-Samples/cognitive-services-sample-data-files/raw/master/ComputerVision/Images/faces.jpg";
    
            // This list defines the features to be extracted from the image.
            List<VisualFeatureTypes> featuresToExtractFromRemoteImage = new ArrayList<>();
            featuresToExtractFromRemoteImage.add(VisualFeatureTypes.TAGS);
    
            System.out.println("\n\nAnalyzing an image from a URL ...");
    
            try {
                // Call the Computer Vision service and tell it to analyze the loaded image.
                ImageAnalysis analysis = compVisClient.computerVision().analyzeImage().withUrl(pathToRemoteImage)
                        .withVisualFeatures(featuresToExtractFromRemoteImage).execute();
    
    
                // Display image tags and confidence values.
                System.out.println("\nTags: ");
                for (ImageTag tag : analysis.tags()) {
                    System.out.printf("\'%s\' with confidence %f\n", tag.name(), tag.confidence());
                }
            }
    
            catch (Exception e) {
                System.out.println(e.getMessage());
                e.printStackTrace();
            }
        }
        // END - Analyze an image from a URL.
    
    }
    
  5. Navegue de volta para a pasta raiz do projeto e crie o aplicativo com:

    gradle build
    

    Execute-o com o seguinte comando:

    gradle run
    

Saída

A saída da operação deve ser semelhante ao exemplo a seguir.

Azure Vision - Java Quickstart Sample

Analyzing an image from a URL ...

Tags:
'person' with confidence 0.998895
'human face' with confidence 0.997437
'smile' with confidence 0.991973
'outdoor' with confidence 0.985962
'happy' with confidence 0.969785
'clothing' with confidence 0.961570
'friendship' with confidence 0.946441
'tree' with confidence 0.917331
'female person' with confidence 0.890976
'girl' with confidence 0.888741
'social group' with confidence 0.872044
'posing' with confidence 0.865493
'adolescent' with confidence 0.857371
'love' with confidence 0.852553
'laugh' with confidence 0.850097
'people' with confidence 0.849922
'lady' with confidence 0.844540
'woman' with confidence 0.818172
'group' with confidence 0.792975
'wedding' with confidence 0.615252
'dress' with confidence 0.517169

Limpar recursos

Se você quiser limpar e remover uma assinatura do Foundry Tools, poderá excluir o recurso ou o grupo de recursos. Excluir o grupo de recursos também exclui outros recursos associados a ele.

Próxima etapa

Neste início rápido, você aprendeu a instalar a biblioteca de clientes da Análise de Imagem e a fazer chamadas básicas de análise de imagem. Em seguida, saiba mais sobre os recursos da API Analyze Image.

Use a biblioteca cliente de Análise de Imagem para JavaScript para analisar uma imagem remota quanto a tags de conteúdo.

Dica

Você também pode analisar uma imagem local. Consulte os métodos ComputerVisionClient , como describeImageInStream. Ou consulte o código sample em GitHub para cenários que envolvem imagens locais.

Dica

A API analisar imagem pode fazer muitas operações diferentes além de gerar marcas de imagem. Consulte o guia de instruções da Análise de Imagem para obter exemplos que mostram todos os recursos disponíveis.

Documentação de referência | Pacote (npm) | Amostras

Pré-requisitos

  • Uma assinatura Azure. Você pode criar um gratuitamente.
  • A versão atual do Node.js.
  • Depois de ter sua assinatura do Azure, crie um recurso Pesquisa Visual Computacional no portal do Azure para obter sua chave e ponto de extremidade. Depois que ele for implantado, selecione Ir para o recurso.
    • Você precisa da chave e do endpoint do recurso que você criar para conectar seu aplicativo ao Azure Vision nas Ferramentas da Foundry.
    • Você pode usar o tipo de preço gratuito (F0) para experimentar o serviço e atualizar posteriormente para uma camada paga para produção.

Criar variáveis de ambiente

Neste exemplo, escreva suas credenciais em variáveis de ambiente no computador local que executa o aplicativo.

Vá para o portal do Azure. Se o recurso que você criou na seção Pré-requisitos for implantado com êxito, selecione Ir para o recurso nas próximas etapas. Você pode encontrar sua chave e seu ponto de extremidade no Gerenciamento de Recursos, na página Chaves e Ponto de Extremidade do recurso Face. Sua chave de recurso não é a mesma que sua ID de assinatura Azure.

Para definir a variável de ambiente para sua chave e ponto de extremidade, abra uma janela do console e siga as instruções para seu sistema operacional e ambiente de desenvolvimento.

  • Para definir a VISION_KEY variável de ambiente, substitua <your_key> por uma das chaves do recurso.
  • Para definir a variável de VISION_ENDPOINT ambiente, substitua <your_endpoint> pelo ponto de extremidade do recurso.

Importante

Recomendamos a autenticação Microsoft Entra ID com identidades gerenciadas para os recursos Azure para evitar armazenar credenciais nos seus aplicativos que são executados na nuvem.

Use chaves de API com cuidado. Não inclua a chave de API diretamente em seu código e nunca a publique publicamente. Se estiver usando chaves de API, armazene-as com segurança em Azure Key Vault, gire as chaves regularmente e restrinja o acesso a Azure Key Vault usando controle de acesso baseado em função e restrições de acesso à rede. Para obter mais informações sobre como usar chaves de API com segurança em seus aplicativos, consulte as chaves API com Azure Key Vault.

Para obter mais informações sobre a segurança dos serviços de IA, consulte Autenticar solicitações para Serviços de IA do Azure.

setx VISION_KEY <your_key>
setx VISION_ENDPOINT <your_endpoint>

Depois de adicionar as variáveis de ambiente, talvez seja necessário reiniciar todos os programas em execução que lerão as variáveis de ambiente, incluindo a janela do console.

Analisar imagem

  1. Criar um novo aplicativo Node.js

    Em uma janela do console (como cmd, PowerShell ou Bash), crie um novo diretório para seu aplicativo e navegue até ele.

    mkdir myapp && cd myapp
    

    Execute o comando npm init para criar um aplicativo Node.js com um arquivo package.json.

    npm init
    

    Instalar a biblioteca de clientes

    Instale o pacote npm ms-rest-azure e @azure/cognitiveservices-computervision.

    npm install @azure/cognitiveservices-computervision
    

    Instale também o módulo assíncrono:

    npm install async
    

    O arquivo package.json do aplicativo é atualizado com as dependências.

    Criar um novo arquivo, index.js.

  2. Abra index.js em um editor de texto e cole no código a seguir.

    'use strict';
    
    const async = require('async');
    const fs = require('fs');
    const https = require('https');
    const path = require("path");
    const createReadStream = require('fs').createReadStream
    const sleep = require('util').promisify(setTimeout);
    const ComputerVisionClient = require('@azure/cognitiveservices-computervision').ComputerVisionClient;
    const ApiKeyCredentials = require('@azure/ms-rest-js').ApiKeyCredentials;
    
    /**
     * AUTHENTICATE
     * This single client is used for all examples.
     */
    const key = process.env.VISION_KEY;
    const endpoint = process.env.VISION_ENDPOINT;
    
    
    const computerVisionClient = new ComputerVisionClient(
      new ApiKeyCredentials({ inHeader: { 'Ocp-Apim-Subscription-Key': key } }), endpoint);
    /**
     * END - Authenticate
     */
    
    
    function computerVision() {
      async.series([
        async function () {
    
          /**
           * DETECT TAGS  
           * Detects tags for an image, which returns:
           *     all objects in image and confidence score.
           */
          console.log('-------------------------------------------------');
          console.log('DETECT TAGS');
          console.log();
    
          // Image of different kind of dog.
          const tagsURL = 'https://github.com/Azure-Samples/cognitive-services-sample-data-files/blob/master/ComputerVision/Images/house.jpg';
    
          // Analyze URL image
          console.log('Analyzing tags in image...', tagsURL.split('/').pop());
          const tags = (await computerVisionClient.analyzeImage(tagsURL, { visualFeatures: ['Tags'] })).tags;
          console.log(`Tags: ${formatTags(tags)}`);
    
          // Format tags for display
          function formatTags(tags) {
            return tags.map(tag => (`${tag.name} (${tag.confidence.toFixed(2)})`)).join(', ');
          }
          /**
           * END - Detect Tags
           */
          console.log();
          console.log('-------------------------------------------------');
          console.log('End of quickstart.');
    
        },
        function () {
          return new Promise((resolve) => {
            resolve();
          })
        }
      ], (err) => {
        throw (err);
      });
    }
    
    computerVision();
    
  3. Execute o aplicativo com o node comando no arquivo de início rápido.

    node index.js
    

Saída

A saída da operação deve ser semelhante ao exemplo a seguir.

-------------------------------------------------
DETECT TAGS

Analyzing tags in image... sample16.png
Tags: grass (1.00), dog (0.99), mammal (0.99), animal (0.99), dog breed (0.99), pet (0.97), outdoor (0.97), companion dog (0.91), small greek domestic dog (0.90), golden retriever (0.89), labrador retriever (0.87), puppy (0.87), ancient dog breeds (0.85), field (0.80), retriever (0.68), brown (0.66)

-------------------------------------------------
End of quickstart.

Limpar recursos

Se você quiser limpar e remover uma assinatura do Foundry Tools, poderá excluir o recurso ou o grupo de recursos. Excluir o grupo de recursos também exclui outros recursos associados a ele.

Próxima etapa

Neste início rápido, você aprendeu a instalar a biblioteca de clientes da Análise de Imagem e a fazer chamadas básicas de análise de imagem. Em seguida, saiba mais sobre os recursos da API Analyze Image.

Use a API REST para Análise de Imagem para analisar uma imagem por etiquetas.

Dica

A API analisar imagem pode fazer muitas operações diferentes além de gerar marcas de imagem. Consulte o guia de instruções da Análise de Imagem para obter exemplos que mostram todos os recursos disponíveis.

Nota

Este início rápido usa comandos cURL para chamar a API REST. Você também pode chamar a API REST usando uma linguagem de programação. Consulte os exemplos de GitHub para obter exemplos em C#, Python, Java e JavaScript.

Pré-requisitos

  • Uma assinatura Azure. Você pode criar um gratuitamente.
  • Depois de ter sua assinatura do Azure, crie um recurso Pesquisa Visual Computacional no portal do Azure para obter sua chave e ponto de extremidade. Depois que ele for implantado, selecione Ir para o recurso.
    • Você precisa da chave e do endpoint do recurso que você criar para conectar seu aplicativo ao Azure Vision nas Ferramentas da Foundry.
    • Você pode usar o tipo de preço gratuito (F0) para experimentar o serviço e atualizar posteriormente para uma camada paga para produção.
  • cURL instalado.

Analisar uma imagem

Para analisar uma imagem para vários recursos visuais, execute as seguintes etapas:

  1. Copie o comando a seguir em um editor de texto.

    curl.exe -H "Ocp-Apim-Subscription-Key: <yourKey>" -H "Content-Type: application/json" "https://westcentralus.api.cognitive.microsoft.com/vision/v3.2/analyze?visualFeatures=Tags" -d "{'url':'https://learn.microsoft.com/azure/ai-services/computer-vision/media/quickstarts/presentation.png'}"
    
  2. Faça as seguintes alterações no comando quando necessário:

    1. Substitua o valor de <yourKey> pela chave do recurso de Pesquisa Visual Computacional.
    2. Substitua a primeira parte da URL da solicitação (westcentralus.api.cognitive.microsoft.com) por sua própria URL de ponto de extremidade.

      Nota

      Novos recursos criados após 1º de julho de 2019 usarão nomes de subdomínio personalizados. Para obter mais informações e uma lista completa de pontos de extremidade regionais, consulte Nomes de Subdomínio Personalizados para Ferramentas de Fundição.

    3. Opcionalmente, altere a URL da imagem no corpo da solicitação (https://learn.microsoft.com/azure/ai-services/computer-vision/media/quickstarts/presentation.png) para a URL de uma imagem diferente a ser analisada.
  3. Abra uma janela do prompt de comando.

  4. Cole o comando editado curl do editor de texto na janela do prompt de comando e execute o comando.

Examinar a resposta

Uma resposta bem-sucedida é retornada no formato JSON. O aplicativo de exemplo analisa e exibe uma resposta bem-sucedida na janela do prompt de comando, semelhante ao exemplo a seguir:

{
   "tags":[
      {
         "name":"text",
         "confidence":0.9992657899856567
      },
      {
         "name":"post-it note",
         "confidence":0.9879657626152039
      },
      {
         "name":"handwriting",
         "confidence":0.9730165004730225
      },
      {
         "name":"rectangle",
         "confidence":0.8658561706542969
      },
      {
         "name":"paper product",
         "confidence":0.8561884760856628
      },
      {
         "name":"purple",
         "confidence":0.5961999297142029
      }
   ],
   "requestId":"2788adfc-8cfb-43a5-8fd6-b3a9ced35db2",
   "metadata":{
      "height":945,
      "width":1000,
      "format":"Jpeg"
   },
   "modelVersion":"2021-05-01"
}

Próxima etapa

Neste início rápido, você aprendeu a fazer chamadas básicas de análise de imagem usando a API REST. Em seguida, saiba mais sobre os recursos da API Analyze Image.