Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Éditions OCR (lecture)
Important
Sélectionnez l’édition Lecture qui répond le mieux à vos besoins.
| Entrée | Exemples | Lire l’édition | Avantage |
|---|---|---|---|
| Images : Images génériques et sur le terrain | étiquettes, panneaux de rue et affiches | OCR pour les images (version 4.0) | Optimisé pour les images générales et non-document avec une API synchrone améliorée aux performances qui facilite l’incorporation d’OCR dans vos scénarios d’expérience utilisateur. |
| Documents : numériques et scannés, y compris les images | livres, articles et rapports | Modèle de lecture Document Intelligence | Optimisé pour les documents numérisés et numériques lourds de texte avec une API asynchrone afin d’automatiser le traitement intelligent des documents à grande échelle. |
À propos de la version GA d'Azure Vision v3.2
Recherchez-vous la version en disponibilité générale la plus récente d'Azure Vision v3.2 ? Toutes les futures améliorations d’OCR en lecture font partie des deux services répertoriés précédemment. Il n’existe aucune autre mise à jour de Azure Vision v3.2. Pour plus d’informations, consultez Appeler l'API de lecture en disponibilité générale Azure Vision 3.2 et Démarrage rapide : Azure Vision v3.2 GA Read.
Prise en main de Azure Vision dans l’API REST Lecture des outils Foundry ou des bibliothèques clientes. L’API Read vous fournit des algorithmes IA pour extraire du texte à partir d’images et le renvoyer sous forme de chaînes structurées. Suivez ces étapes pour installer un package dans votre application et essayer l’exemple de code pour les tâches de base.
Utilisez la bibliothèque cliente de reconnaissance optique de caractères (OCR) pour lire du texte imprimé et manuscrit à partir d’une image. Le service OCR peut lire du texte visible dans une image et le convertir en flux de caractères. Pour plus d’informations sur la reconnaissance de texte, consultez la vue d’ensemble de l’OCR. Le code de cette section utilise le dernier package Azure Vision dans Foundry Tools.
Conseil
Vous pouvez également extraire du texte d’une image locale. Consultez les méthodes ComputerVisionClient , telles que ReadInStreamAsync. Vous pouvez également consulter l’exemple de code sur GitHub pour les scénarios impliquant des images locales.
documentation de référence | Code source de la bibliothèque | Package (NuGet) | Exemples
Conditions préalables
- Un abonnement Azure - Create one gratuitement.
- La version IDE Visual Studio ou actuelle de .NET Core.
-
Une ressource Azure Vision. Vous pouvez utiliser le niveau tarifaire gratuit (
F0) pour essayer le service et effectuer une mise à niveau ultérieure vers un niveau payant pour la production. - Clé et point de terminaison de la ressource que vous créez pour connecter votre application à Azure Vision.
- Après le déploiement de votre ressource Azure Vision, sélectionnez Go to resource.
- Dans le volet gauche, sélectionnez Clés et point de terminaison.
- Copiez l’une des clés et le point de terminaison à utiliser ultérieurement dans le guide de démarrage rapide.
Créer des variables d’environnement
Dans cet exemple, écrivez vos informations d’identification dans des variables d’environnement sur l’ordinateur local qui exécute l’application.
Accédez au portail Azure. Si la ressource que vous avez créée dans la section Conditions préalables déployée avec succès, sélectionnez Accéder à la ressource sous Étapes suivantes. Vous pouvez trouver votre clé et votre point de terminaison sous Gestion des ressources dans la page Clés et point de terminaison de la ressource Visage. Votre clé de ressource n'est pas la même que votre ID d'abonnement Azure.
Pour définir la variable d’environnement de votre clé et de votre point de terminaison, ouvrez une fenêtre de console et suivez les instructions de votre système d’exploitation et de votre environnement de développement.
- Pour définir la variable d’environnement
VISION_KEY, remplacez<your_key>par l’une des clés de votre ressource. - Pour définir la variable d’environnement
VISION_ENDPOINT, remplacez<your_endpoint>par le point de terminaison de votre ressource.
Important
Nous vous recommandons l'authentification Microsoft Entra ID avec les identités managées pour les ressources Azure pour éviter de stocker les identifiants avec vos applications qui s'exécutent dans le cloud.
Utilisez des clés API avec précaution. N’incluez pas la clé API directement dans votre code et ne la publiez jamais publiquement. Si vous utilisez des clés API, stockez-les en toute sécurité dans Azure Key Vault, faites pivoter les clés régulièrement et limitez l’accès aux Azure Key Vault à l’aide du contrôle d’accès en fonction du rôle et des restrictions d’accès réseau. Pour plus d’informations sur l’utilisation sécurisée des clés API dans vos applications, consultez les API avec Azure Key Vault.
Pour plus d’informations sur la sécurité des services d’INTELLIGENCE artificielle, consultez Demandes d’authentification à Azure AI services.
setx VISION_KEY <your_key>
setx VISION_ENDPOINT <your_endpoint>
Après avoir ajouté les variables d’environnement, vous devrez peut-être redémarrer tous les programmes en cours d’exécution qui liront les variables d’environnement, y compris la fenêtre de console.
Lire le texte imprimé et manuscrit
Créez une application C#.
À l’aide de Visual Studio, créez un projet Console App (.NET Framework) pour C#, Windows, console.
Après avoir créé un projet, installez la bibliothèque cliente :
- Cliquez avec le bouton droit sur la solution de projet dans le Explorateur de solutions et sélectionnez Manage NuGet Packages for Solution.
- Dans le gestionnaire de package qui s’ouvre, sélectionnez Parcourir. Sélectionnez Inclure la préversion.
- Recherchez et sélectionnez
Microsoft.Azure.CognitiveServices.Vision.ComputerVision. - Dans la boîte de dialogue détails, sélectionnez votre projet et sélectionnez la dernière version stable. Sélectionnez Ensuite Installer.
Dans le répertoire du projet, ouvrez le fichier Program.cs dans votre éditeur ou IDE préféré. Remplacez le contenu de Program.cs par le code suivant.
using System; using System.Collections.Generic; using Microsoft.Azure.CognitiveServices.Vision.ComputerVision; using Microsoft.Azure.CognitiveServices.Vision.ComputerVision.Models; using System.Threading.Tasks; using System.IO; using Newtonsoft.Json; using Newtonsoft.Json.Linq; using System.Threading; using System.Linq; namespace ComputerVisionQuickstart { class Program { // Add your Computer Vision key and endpoint static string key = Environment.GetEnvironmentVariable("VISION_KEY"); static string endpoint = Environment.GetEnvironmentVariable("VISION_ENDPOINT"); private const string READ_TEXT_URL_IMAGE = "https://raw.githubusercontent.com/Azure-Samples/cognitive-services-sample-data-files/master/ComputerVision/Images/printed_text.jpg"; static void Main(string[] args) { Console.WriteLine("Azure Cognitive Services Computer Vision - .NET quickstart example"); Console.WriteLine(); ComputerVisionClient client = Authenticate(endpoint, key); // Extract text (OCR) from a URL image using the Read API ReadFileUrl(client, READ_TEXT_URL_IMAGE).Wait(); } public static ComputerVisionClient Authenticate(string endpoint, string key) { ComputerVisionClient client = new ComputerVisionClient(new ApiKeyServiceClientCredentials(key)) { Endpoint = endpoint }; return client; } public static async Task ReadFileUrl(ComputerVisionClient client, string urlFile) { Console.WriteLine("----------------------------------------------------------"); Console.WriteLine("READ FILE FROM URL"); Console.WriteLine(); // Read text from URL var textHeaders = await client.ReadAsync(urlFile); // After the request, get the operation location (operation ID) string operationLocation = textHeaders.OperationLocation; Thread.Sleep(2000); // Retrieve the URI where the extracted text will be stored from the Operation-Location header. // We only need the ID and not the full URL const int numberOfCharsInOperationId = 36; string operationId = operationLocation.Substring(operationLocation.Length - numberOfCharsInOperationId); // Extract the text ReadOperationResult results; Console.WriteLine($"Extracting text from URL file {Path.GetFileName(urlFile)}..."); Console.WriteLine(); do { results = await client.GetReadResultAsync(Guid.Parse(operationId)); } while ((results.Status == OperationStatusCodes.Running || results.Status == OperationStatusCodes.NotStarted)); // Display the found text. Console.WriteLine(); var textUrlFileResults = results.AnalyzeResult.ReadResults; foreach (ReadResult page in textUrlFileResults) { foreach (Line line in page.Lines) { Console.WriteLine(line.Text); } } Console.WriteLine(); } } }En guise d’étape facultative, consultez Déterminer comment traiter les données. Par exemple, pour spécifier explicitement le dernier modèle disponible en GA, modifiez l’appel
ReadAsynccomme indiqué. Ignorez le paramètre ou utilisez-le"latest"pour utiliser le modèle ga le plus récent.// Read text from URL with a specific model version var textHeaders = await client.ReadAsync(urlFile,null,null,"2022-04-30");Exécutez l’application.
- Dans le menu Débogage , sélectionnez Démarrer le débogage.
Sortie
Azure Vision - .NET quickstart example
----------------------------------------------------------
READ FILE FROM URL
Extracting text from URL file printed_text.jpg...
Nutrition Facts Amount Per Serving
Serving size: 1 bar (40g)
Serving Per Package: 4
Total Fat 13g
Saturated Fat 1.5g
Amount Per Serving
Trans Fat 0g
Calories 190
Cholesterol 0mg
Calories from Fat 110
Sodium 20mg
nt Daily Values are based on Vitamin A 50%
calorie diet.
Nettoyer les ressources
Si vous souhaitez nettoyer et supprimer un abonnement Foundry Tools, vous pouvez supprimer la ressource ou le groupe de ressources. La suppression du groupe de ressources supprime également toutes les autres ressources associées.
Étapes suivantes
Dans ce guide de démarrage rapide, vous avez appris à installer la bibliothèque cliente OCR et à utiliser l’API Read. Apprenez-en davantage sur les fonctionnalités de l’API Read.
- Vue d’ensemble de l’OCR
- Le code source de cet exemple est disponible sur GitHub.
Utilisez la bibliothèque cliente ocr (Reconnaissance optique de caractères) pour lire du texte imprimé et manuscrit à partir d’une image distante. Le service OCR peut lire du texte visible dans une image et le convertir en flux de caractères. Pour plus d’informations sur la reconnaissance de texte, consultez la vue d’ensemble de l’OCR.
Conseil
Vous pouvez également lire du texte à partir d’une image locale. Consultez les méthodes ComputerVisionClientOperationsMixin , telles que read_in_stream. Vous pouvez également consulter l’exemple de code sur GitHub pour les scénarios impliquant des images locales.
Documentation de référence | Code source de la bibliothèque | Package (PiPy) | Exemples
Conditions préalables
- Un abonnement Azure - Create one gratuitement.
- Python 3.x.
- Votre installation de Python doit inclure pip. Vous pouvez vérifier si pip est installé, exécutez-le
pip --versionsur la ligne de commande. Obtenez pip en installant la dernière version de Python. -
Une Vision Azure dans la ressource Foundry Tools. Vous pouvez utiliser le niveau tarifaire gratuit (
F0) pour essayer le service et effectuer une mise à niveau ultérieure vers un niveau payant pour la production. - Clé et point de terminaison de la ressource que vous créez pour connecter votre application à Azure Vision.
- Après le déploiement de votre ressource Azure Vision, sélectionnez Go to resource.
- Dans le volet gauche, sélectionnez Clés et point de terminaison.
- Copiez l’une des clés et le point de terminaison à utiliser ultérieurement dans le guide de démarrage rapide.
Créer des variables d’environnement
Dans cet exemple, écrivez vos informations d’identification dans des variables d’environnement sur l’ordinateur local qui exécute l’application.
Accédez au portail Azure. Si la ressource que vous avez créée dans la section Conditions préalables déployée avec succès, sélectionnez Accéder à la ressource sous Étapes suivantes. Vous pouvez trouver votre clé et votre point de terminaison sous Gestion des ressources dans la page Clés et point de terminaison de la ressource Visage. Votre clé de ressource n'est pas la même que votre ID d'abonnement Azure.
Pour définir la variable d’environnement de votre clé et de votre point de terminaison, ouvrez une fenêtre de console et suivez les instructions de votre système d’exploitation et de votre environnement de développement.
- Pour définir la variable d’environnement
VISION_KEY, remplacez<your_key>par l’une des clés de votre ressource. - Pour définir la variable d’environnement
VISION_ENDPOINT, remplacez<your_endpoint>par le point de terminaison de votre ressource.
Important
Nous vous recommandons l'authentification Microsoft Entra ID avec les identités managées pour les ressources Azure pour éviter de stocker les identifiants avec vos applications qui s'exécutent dans le cloud.
Utilisez des clés API avec précaution. N’incluez pas la clé API directement dans votre code et ne la publiez jamais publiquement. Si vous utilisez des clés API, stockez-les en toute sécurité dans Azure Key Vault, faites pivoter les clés régulièrement et limitez l’accès aux Azure Key Vault à l’aide du contrôle d’accès en fonction du rôle et des restrictions d’accès réseau. Pour plus d’informations sur l’utilisation sécurisée des clés API dans vos applications, consultez les API avec Azure Key Vault.
Pour plus d’informations sur la sécurité des services d’INTELLIGENCE artificielle, consultez Demandes d’authentification à Azure AI services.
setx VISION_KEY <your_key>
setx VISION_ENDPOINT <your_endpoint>
Après avoir ajouté les variables d’environnement, vous devrez peut-être redémarrer tous les programmes en cours d’exécution qui liront les variables d’environnement, y compris la fenêtre de console.
Lire le texte imprimé et manuscrit
Installez la bibliothèque cliente.
Dans une fenêtre de console, exécutez la commande suivante :
pip install --upgrade azure-cognitiveservices-vision-computervisionInstallez la bibliothèque Pillow.
pip install pillowCréez un fichier d’application Python, quickstart-file.py. Ouvrez-le ensuite dans votre éditeur ou IDE préféré.
Remplacez le contenu de quickstart-file.py par le code suivant.
from azure.cognitiveservices.vision.computervision import ComputerVisionClient from azure.cognitiveservices.vision.computervision.models import OperationStatusCodes from azure.cognitiveservices.vision.computervision.models import VisualFeatureTypes from msrest.authentication import CognitiveServicesCredentials from array import array import os from PIL import Image import sys import time ''' Authenticate Authenticates your credentials and creates a client. ''' subscription_key = os.environ["VISION_KEY"] endpoint = os.environ["VISION_ENDPOINT"] computervision_client = ComputerVisionClient(endpoint, CognitiveServicesCredentials(subscription_key)) ''' END - Authenticate ''' ''' OCR: Read File using the Read API, extract text - remote This example will extract text in an image, then print results, line by line. This API call can also extract handwriting style text (not shown). ''' print("===== Read File - remote =====") # Get an image with text read_image_url = "https://learn.microsoft.com/azure/ai-services/computer-vision/media/quickstarts/presentation.png" # Call API with URL and raw response (allows you to get the operation location) read_response = computervision_client.read(read_image_url, raw=True) # Get the operation location (URL with an ID at the end) from the response read_operation_location = read_response.headers["Operation-Location"] # Grab the ID from the URL operation_id = read_operation_location.split("/")[-1] # Call the "GET" API and wait for it to retrieve the results while True: read_result = computervision_client.get_read_result(operation_id) if read_result.status not in ['notStarted', 'running']: break time.sleep(1) # Print the detected text, line by line if read_result.status == OperationStatusCodes.succeeded: for text_result in read_result.analyze_result.read_results: for line in text_result.lines: print(line.text) print(line.bounding_box) print() ''' END - Read File - remote ''' print("End of Computer Vision quickstart.")En guise d’étape facultative, consultez Déterminer comment traiter les données. Par exemple, pour spécifier explicitement le dernier modèle en disponibilité générale, modifiez l’instruction
readcomme indiqué. Ignorer le paramètre ou utiliser"latest"revient automatiquement à utiliser le modèle GA le plus récent.# Call API with URL and raw response (allows you to get the operation location) read_response = computervision_client.read(read_image_url, raw=True, model_version="2022-04-30")Exécutez l’application avec la
pythoncommande dans votre fichier de démarrage rapide.python quickstart-file.py
Sortie
===== Read File - remote =====
The quick brown fox jumps
[38.0, 650.0, 2572.0, 699.0, 2570.0, 854.0, 37.0, 815.0]
Over
[184.0, 1053.0, 508.0, 1044.0, 510.0, 1123.0, 184.0, 1128.0]
the lazy dog!
[639.0, 1011.0, 1976.0, 1026.0, 1974.0, 1158.0, 637.0, 1141.0]
End of Azure Vision quickstart.
Nettoyer les ressources
Si vous souhaitez nettoyer et supprimer un abonnement Foundry Tools, vous pouvez supprimer la ressource ou le groupe de ressources. La suppression du groupe de ressources supprime également toutes les autres ressources associées.
Étapes suivantes
Dans ce guide de démarrage rapide, vous avez appris à installer la bibliothèque cliente OCR et à utiliser l’API Read. Apprenez-en davantage sur les fonctionnalités de l’API Read.
- Vue d’ensemble de l’OCR
- Le code source de cet exemple est disponible sur GitHub.
Utilisez la bibliothèque cliente ocr (Reconnaissance optique de caractères) pour lire du texte imprimé et manuscrit avec l’API Lecture. Le service OCR peut lire du texte visible dans une image et le convertir en flux de caractères. Pour plus d’informations sur la reconnaissance de texte, consultez la vue d’ensemble de l’OCR.
Conseil
Vous pouvez également lire du texte à partir d’une image locale. Consultez les méthodes ComputerVisionClient , telles que readInStream. Vous pouvez également consulter l’exemple de code sur GitHub pour les scénarios impliquant des images locales.
Documentation de référence | Package (npm) | Exemples
Conditions préalables
- Un abonnement Azure - Create one gratuitement.
- Version actuelle de Node.js.
-
Une Vision Azure dans la ressource Foundry Tools. Vous pouvez utiliser le niveau tarifaire gratuit (
F0) pour essayer le service et effectuer une mise à niveau ultérieure vers un niveau payant pour la production. - Clé et point de terminaison de la ressource que vous créez pour connecter votre application à Azure Vision.
- Après le déploiement de votre ressource Azure Vision, sélectionnez Go to resource.
- Dans le volet gauche, sélectionnez Clés et point de terminaison.
- Copiez l’une des clés et le point de terminaison à utiliser ultérieurement dans le guide de démarrage rapide.
Créer des variables d’environnement
Dans cet exemple, écrivez vos informations d’identification dans des variables d’environnement sur l’ordinateur local qui exécute l’application.
Accédez au portail Azure. Si la ressource que vous avez créée dans la section Conditions préalables déployée avec succès, sélectionnez Accéder à la ressource sous Étapes suivantes. Vous pouvez trouver votre clé et votre point de terminaison sous Gestion des ressources dans la page Clés et point de terminaison de la ressource Visage. Votre clé de ressource n'est pas la même que votre ID d'abonnement Azure.
Pour définir la variable d’environnement de votre clé et de votre point de terminaison, ouvrez une fenêtre de console et suivez les instructions de votre système d’exploitation et de votre environnement de développement.
- Pour définir la variable d’environnement
VISION_KEY, remplacez<your_key>par l’une des clés de votre ressource. - Pour définir la variable d’environnement
VISION_ENDPOINT, remplacez<your_endpoint>par le point de terminaison de votre ressource.
Important
Nous vous recommandons l'authentification Microsoft Entra ID avec les identités managées pour les ressources Azure pour éviter de stocker les identifiants avec vos applications qui s'exécutent dans le cloud.
Utilisez des clés API avec précaution. N’incluez pas la clé API directement dans votre code et ne la publiez jamais publiquement. Si vous utilisez des clés API, stockez-les en toute sécurité dans Azure Key Vault, faites pivoter les clés régulièrement et limitez l’accès aux Azure Key Vault à l’aide du contrôle d’accès en fonction du rôle et des restrictions d’accès réseau. Pour plus d’informations sur l’utilisation sécurisée des clés API dans vos applications, consultez les API avec Azure Key Vault.
Pour plus d’informations sur la sécurité des services d’INTELLIGENCE artificielle, consultez Demandes d’authentification à Azure AI services.
setx VISION_KEY <your_key>
setx VISION_ENDPOINT <your_endpoint>
Après avoir ajouté les variables d’environnement, vous devrez peut-être redémarrer tous les programmes en cours d’exécution qui liront les variables d’environnement, y compris la fenêtre de console.
Lire le texte imprimé et manuscrit
Créez une application Node.js.
Dans une fenêtre de console, créez un répertoire pour votre application et accédez-y.
mkdir myapp cd myappExécutez la
npm initcommande pour créer une application de nœud avec unpackage.jsonfichier. Sélectionnez Entrer pour toute invitation.npm initPour installer la bibliothèque cliente, installez les packages npm
ms-rest-azureet@azure/cognitiveservices-computervision.npm install ms-rest-azure npm install @azure/cognitiveservices-computervisionInstallez le module asynchrone :
npm install asyncLe fichier
package.jsonde votre application est mis à jour avec les dépendances.Créez un fichier, index.js, puis ouvrez-le dans un éditeur de texte.
Collez le code suivant dans votre fichier index.js .
'use strict'; const async = require('async'); const fs = require('fs'); const https = require('https'); const path = require("path"); const createReadStream = require('fs').createReadStream const sleep = require('util').promisify(setTimeout); const ComputerVisionClient = require('@azure/cognitiveservices-computervision').ComputerVisionClient; const ApiKeyCredentials = require('@azure/ms-rest-js').ApiKeyCredentials; /** * AUTHENTICATE * This single client is used for all examples. */ const key = process.env.VISION_KEY; const endpoint = process.env.VISION_ENDPOINT; const computerVisionClient = new ComputerVisionClient( new ApiKeyCredentials({ inHeader: { 'Ocp-Apim-Subscription-Key': key } }), endpoint); /** * END - Authenticate */ function computerVision() { async.series([ async function () { /** * OCR: READ PRINTED & HANDWRITTEN TEXT WITH THE READ API * Extracts text from images using OCR (optical character recognition). */ console.log('-------------------------------------------------'); console.log('READ PRINTED, HANDWRITTEN TEXT AND PDF'); console.log(); // URL images containing printed and/or handwritten text. // The URL can point to image files (.jpg/.png/.bmp) or multi-page files (.pdf, .tiff). const printedTextSampleURL = 'https://raw.githubusercontent.com/Azure-Samples/cognitive-services-sample-data-files/master/ComputerVision/Images/printed_text.jpg'; // Recognize text in printed image from a URL console.log('Read printed text from URL...', printedTextSampleURL.split('/').pop()); const printedResult = await readTextFromURL(computerVisionClient, printedTextSampleURL); printRecText(printedResult); // Perform read and await the result from URL async function readTextFromURL(client, url) { // To recognize text in a local image, replace client.read() with readTextInStream() as shown: let result = await client.read(url); // Operation ID is last path segment of operationLocation (a URL) let operation = result.operationLocation.split('/').slice(-1)[0]; // Wait for read recognition to complete // result.status is initially undefined, since it's the result of read while (result.status !== "succeeded") { await sleep(1000); result = await client.getReadResult(operation); } return result.analyzeResult.readResults; // Return the first page of result. Replace [0] with the desired page if this is a multi-page file such as .pdf or .tiff. } // Prints all text from Read result function printRecText(readResults) { console.log('Recognized text:'); for (const page in readResults) { if (readResults.length > 1) { console.log(`==== Page: ${page}`); } const result = readResults[page]; if (result.lines.length) { for (const line of result.lines) { console.log(line.words.map(w => w.text).join(' ')); } } else { console.log('No recognized text.'); } } } /** * * Download the specified file in the URL to the current local folder * */ function downloadFilesToLocal(url, localFileName) { return new Promise((resolve, reject) => { console.log('--- Downloading file to local directory from: ' + url); const request = https.request(url, (res) => { if (res.statusCode !== 200) { console.log(`Download sample file failed. Status code: ${res.statusCode}, Message: ${res.statusMessage}`); reject(); } var data = []; res.on('data', (chunk) => { data.push(chunk); }); res.on('end', () => { console.log(' ... Downloaded successfully'); fs.writeFileSync(localFileName, Buffer.concat(data)); resolve(); }); }); request.on('error', function (e) { console.log(e.message); reject(); }); request.end(); }); } /** * END - Recognize Printed & Handwritten Text */ console.log(); console.log('-------------------------------------------------'); console.log('End of quickstart.'); }, function () { return new Promise((resolve) => { resolve(); }) } ], (err) => { throw (err); }); } computerVision();En guise d’étape facultative, consultez Déterminer comment traiter les données. Par exemple, pour spécifier explicitement le dernier modèle en disponibilité générale, modifiez l’instruction
readcomme indiqué. Ignorer le paramètre ou utiliser"latest"revient automatiquement à utiliser le modèle GA le plus récent.let result = await client.read(url,{modelVersion:"2022-04-30"});Exécutez l’application avec la
nodecommande dans votre fichier de démarrage rapide.node index.js
Sortie
-------------------------------------------------
READ PRINTED, HANDWRITTEN TEXT AND PDF
Read printed text from URL... printed_text.jpg
Recognized text:
Nutrition Facts Amount Per Serving
Serving size: 1 bar (40g)
Serving Per Package: 4
Total Fat 13g
Saturated Fat 1.5g
Amount Per Serving
Trans Fat 0g
Calories 190
Cholesterol 0mg
ories from Fat 110
Sodium 20mg
nt Daily Values are based on Vitamin A 50%
calorie diet.
-------------------------------------------------
End of quickstart.
Nettoyer les ressources
Si vous souhaitez nettoyer et supprimer un abonnement Foundry Tools, vous pouvez supprimer la ressource ou le groupe de ressources. La suppression du groupe de ressources supprime également toutes les autres ressources associées.
Étapes suivantes
Dans ce guide de démarrage rapide, vous avez appris à installer la bibliothèque cliente OCR et à utiliser l’API Read. Apprenez-en davantage sur les fonctionnalités de l’API Read.
- Vue d’ensemble de l’OCR
- Le code source de cet exemple est disponible sur GitHub.
Utilisez l’API REST de reconnaissance optique de caractères (OCR) pour lire du texte imprimé et manuscrit.
Note
Ce guide de démarrage rapide utilise des commandes cURL pour appeler l’API REST. Vous pouvez également appeler l’API REST à l’aide d’un langage de programmation. Consultez les exemples GitHub pour obtenir des exemples dans C#, Python, Java et JavaScript.
Conditions préalables
- Un abonnement Azure - Create one gratuitement.
- cURL installé.
-
Une Vision Azure dans la ressource Foundry Tools. Vous pouvez utiliser le niveau tarifaire gratuit (
F0) pour essayer le service et effectuer une mise à niveau ultérieure vers un niveau payant pour la production. - Clé et point de terminaison de la ressource que vous créez pour connecter votre application à Azure Vision.
- Après le déploiement de votre ressource Azure Vision, sélectionnez Go to resource.
- Dans le volet gauche, sélectionnez Clés et point de terminaison.
- Copiez l’une des clés et le point de terminaison à utiliser ultérieurement dans le guide de démarrage rapide.
Lire le texte imprimé et manuscrit
Le service de reconnaissance optique de caractères (OCR) peut extraire du texte visible dans une image ou un document et le convertir en flux de caractères. Pour plus d’informations sur l’extraction de texte, consultez la vue d’ensemble de l’OCR.
Appeler l’API de Read
Pour créer et exécuter l’exemple, procédez comme suit :
Copiez la commande suivante dans un éditeur de texte.
Apportez les modifications suivantes dans la commande si nécessaire :
- Remplacez la valeur de
<key>par votre clé. - Remplacez la première partie de l’URL de requête (
https://westcentralus.api.cognitive.microsoft.com/) par le texte de votre propre URL de point de terminaison.Note
Les nouvelles ressources créées après le 1er juillet 2019 utilisent des noms de sous-domaines personnalisés. Pour plus d’informations et une liste complète des points de terminaison régionaux, consultez les noms de sous-domaines personnalisés pour Foundry Tools.
- Si vous le souhaitez, remplacez l’URL de l’image dans le corps de la requête (
https://learn.microsoft.com/azure/ai-services/computer-vision/media/quickstarts/presentation.png) par l’URL d’une autre image à analyser.
- Remplacez la valeur de
Ouvrez une fenêtre d’invite de commandes.
Collez la commande de l’éditeur de texte dans la fenêtre d’invite de commandes, puis exécutez la commande.
curl -v -X POST "https://westcentralus.api.cognitive.microsoft.com/vision/v3.2/read/analyze" -H "Content-Type: application/json" -H "Ocp-Apim-Subscription-Key: <subscription key>" --data-ascii "{'url':'https://learn.microsoft.com/azure/ai-services/computer-vision/media/quickstarts/presentation.png'}"
La réponse inclut un en-tête Operation-Location dont la valeur est une URL unique. Vous utilisez cette URL pour interroger les résultats de l’opération de lecture. L’URL expire dans 48 heures.
Si vous le souhaitez, spécifiez la version du modèle
En guise d’étape facultative, consultez Déterminer comment traiter les données. Par exemple, pour spécifier explicitement le dernier modèle en disponibilité générale, utilisez-le model-version=2022-04-30 comme paramètre. Ignorer le paramètre ou utiliser model-version=latest revient automatiquement à utiliser le modèle GA le plus récent.
curl -v -X POST "https://westcentralus.api.cognitive.microsoft.com/vision/v3.2/read/analyze?model-version=2022-04-30" -H "Content-Type: application/json" -H "Ocp-Apim-Subscription-Key: <subscription key>" --data-ascii "{'url':'https://learn.microsoft.com/azure/ai-services/computer-vision/media/quickstarts/presentation.png'}"
Afficher les résultats de lecture
Copiez la commande suivante dans votre éditeur de texte.
Remplacez l’URL par la
Operation-Locationvaleur que vous avez copiée dans la procédure précédente.Remplacez la valeur de
<key>par votre clé.Ouvrez une fenêtre de console.
Collez la commande de l’éditeur de texte dans la fenêtre de console, puis exécutez la commande.
curl -v -X GET "https://westcentralus.api.cognitive.microsoft.com/vision/v3.2/read/analyzeResults/{operationId}" -H "Ocp-Apim-Subscription-Key: {key}" --data-ascii "{body}"
Examiner la réponse
Une réponse réussie est retournée dans JSON. L’exemple d’application analyse et affiche une réponse réussie dans la fenêtre de console, comme dans l’exemple suivant :
{
"status": "succeeded",
"createdDateTime": "2021-04-08T21:56:17.6819115+00:00",
"lastUpdatedDateTime": "2021-04-08T21:56:18.4161316+00:00",
"analyzeResult": {
"version": "3.2",
"readResults": [
{
"page": 1,
"angle": 0,
"width": 338,
"height": 479,
"unit": "pixel",
"lines": [
{
"boundingBox": [
25,
14,
318,
14,
318,
59,
25,
59
],
"text": "NOTHING",
"appearance": {
"style": {
"name": "other",
"confidence": 0.971
}
},
"words": [
{
"boundingBox": [
27,
15,
294,
15,
294,
60,
27,
60
],
"text": "NOTHING",
"confidence": 0.994
}
]
}
]
}
]
}
}
Nettoyer les ressources
Si vous souhaitez nettoyer et supprimer un abonnement Foundry Tools, vous pouvez supprimer la ressource ou le groupe de ressources. La suppression du groupe de ressources supprime également toutes les autres ressources associées.
Étapes suivantes
Dans ce guide de démarrage rapide, vous avez appris à appeler l’API REST Read. Apprenez-en davantage sur les fonctionnalités de l’API Read.