За да извлечете всички анотации на обекти от отговора на API в областта на изкуствения интелект – API на Google Vision – Разширено разбиране на изображения – Откриване на обекти, можете да използвате формата на отговор, предоставен от API, който включва списък с открити обекти заедно със съответните им ограничаващи полета и резултати за доверие. Чрез анализиране на този отговор можете да извлечете желаните анотации на обекта.
Отговорът на API обикновено се състои от JSON обект, съдържащ различни полета, включително полето „localizedObjectAnnotations“, което съдържа откритите обекти. Всяка анотация на обект включва информация като името на обекта, координатите на неговата ограничителна кутия и оценка на достоверността, показваща доверието на API в откриването.
За да извлечете анотациите на обекта, можете да следвате следните стъпки:
1. Анализирайте отговора на API: Започнете с анализиране на JSON отговора, получен от API. Това може да стане с помощта на библиотека за анализ на JSON или вградени функции, предоставени от вашия език за програмиране.
2. Достъп до полето „localizedObjectAnnotations“: След като отговорът бъде анализиран, отворете полето „localizedObjectAnnotations“, което съдържа откритите обекти. Това поле обикновено е масив от анотации на обекти.
3. Итерация през анотациите на обекта: Итерация през всяка анотация на обект в масива. Всяка анотация представлява открит обект в изображението.
4. Извличане на релевантна информация: Извличане на релевантната информация от всяка анотация на обект, като име на обекта, координати на ограничителна кутия и резултат на достоверност. Тези подробности могат да бъдат достъпни като отделни полета във всяка анотация на обект.
5. Съхранявайте или обработвайте извлечената информация: В зависимост от вашите изисквания можете да съхранявате извлечената информация в структура от данни или да я обработвате допълнително за анализ или други цели. Например, може да искате да съхраните имената на обектите и съответните им координати на ограничителната кутия в база данни или да ги използвате за допълнителни задачи за разбиране на изображения.
Ето опростен пример за илюстриране на процеса на извличане:
python import json # Assume 'response' contains the API response in JSON format response =
{
"localizedObjectAnnotations": [
{
"среда": "/m/01g317",
"име": "котка",
"резултат": 0.89271355,
"boundingPoly": {
"normalizedVertices": [
{"x": 0.1234, "y": 0.5678},
{"x": 0.5678, "y": 0.1234}
]}
},
{
"среда": "/m/04rky",
"име": "куче",
"резултат": 0.8132468,
"boundingPoly": {
"normalizedVertices": [
{"x": 0.4321, "y": 0.8765},
{"x": 0.8765, "y": 0.4321}
]}
}
]}
# Parse the API response response_data = json.loads(response) # Access the object annotations annotations = response_data['localizedObjectAnnotations'] # Iterate through the object annotations for annotation in annotations: # Extract relevant information object_name = annotation['name'] bounding_box = annotation['boundingPoly']['normalizedVertices'] confidence = annotation['score'] # Process or store the extracted information print(f"Object: {object_name}, Bounding Box: {bounding_box}, Confidence: {confidence}") # Output: # Object: cat, Bounding Box: [{'x': 0.1234, 'y': 0.5678}, {'x': 0.5678, 'y': 0.1234}], Confidence: 0.89271355 # Object: dog, Bounding Box: [{'x': 0.4321, 'y': 0.8765}, {'x': 0.8765, 'y': 0.4321}], Confidence: 0.8132468
В този пример приемаме JSON отговор, съдържащ два открити обекта: котка и куче. Кодът анализира отговора, осъществява достъп до полето "localizedObjectAnnotations", преминава през всяка анотация на обекта и извлича името на обекта, координатите на ограничителната кутия и резултата за доверие. Накрая извлечената информация се отпечатва, но можете да промените кода, за да отговаря на вашите специфични нужди.
Следвайки тези стъпки, можете ефективно да извлечете всички анотации на обекти от отговора на API в областта на изкуствения интелект – API на Google Vision – Разширено разбиране на изображения – Откриване на обекти.
Други скорошни въпроси и отговори относно Разширено разбиране на изображенията:
- Кои са някои предварително дефинирани категории за разпознаване на обекти в API на Google Vision?
- Какъв е препоръчителният подход за използване на функцията за откриване на безопасно търсене в комбинация с други техники за модериране?
- Как можем да получим достъп и да покажем стойностите на вероятността за всяка категория в анотацията за безопасно търсене?
- Как можем да получим анотацията за безопасно търсене с помощта на API на Google Vision в Python?
- Кои са петте категории, включени във функцията за откриване на безопасно търсене?
- Как функцията за безопасно търсене на Google Vision API открива изрично съдържание в изображения?
- Как можем визуално да идентифицираме и подчертаем откритите обекти в изображение с помощта на библиотеката с възглавници?
- Как можем да организираме информацията за извлечения обект в табличен формат, използвайки рамката с данни на pandas?
- Какви библиотеки и език за програмиране се използват за демонстриране на функционалността на API на Google Vision?
- Как Google Vision API извършва откриване на обекти и локализиране в изображения?
Вижте още въпроси и отговори в Разширено разбиране на изображения