Para extraer todas las anotaciones de objetos de la respuesta de la API en el campo de Inteligencia Artificial – API de Google Vision – Comprensión avanzada de imágenes – Detección de objetos, puede utilizar el formato de respuesta proporcionado por la API, que incluye una lista de objetos detectados junto con sus correspondientes. cuadros delimitadores y puntuaciones de confianza. Al analizar esta respuesta, puede extraer las anotaciones de objetos deseadas.
La respuesta de la API normalmente consta de un objeto JSON que contiene varios campos, incluido el campo "localizedObjectAnnotations", que contiene los objetos detectados. Cada anotación de objeto incluye información como el nombre del objeto, las coordenadas del cuadro delimitador y una puntuación de confianza que indica la confianza de la API en la detección.
Para extraer las anotaciones de objetos, puede seguir estos pasos:
1. Analice la respuesta de la API: comience analizando la respuesta JSON recibida de la API. Esto se puede hacer utilizando una biblioteca de análisis JSON o funciones integradas proporcionadas por su lenguaje de programación.
2. Acceda al campo "localizedObjectAnnotations": Una vez analizada la respuesta, acceda al campo "localizedObjectAnnotations", que contiene los objetos detectados. Este campo suele ser una serie de anotaciones de objetos.
3. Iterar a través de las anotaciones de objetos: iterar a través de cada anotación de objeto en la matriz. Cada anotación representa un objeto detectado en la imagen.
4. Extraiga información relevante: extraiga la información relevante de cada anotación de objeto, como el nombre del objeto, las coordenadas del cuadro delimitador y la puntuación de confianza. Se puede acceder a estos detalles como campos separados dentro de cada anotación de objeto.
5. Almacene o procese la información extraída: según sus requisitos, puede almacenar la información extraída en una estructura de datos o procesarla más para análisis u otros fines. Por ejemplo, es posible que desee almacenar los nombres de los objetos y sus correspondientes coordenadas del cuadro delimitador en una base de datos o utilizarlos para tareas adicionales de comprensión de imágenes.
Aquí hay un ejemplo simplificado para ilustrar el proceso de extracción:
python import json # Assume 'response' contains the API response in JSON format response =
{
"anotaciones de objetos localizados": [
{
"medio": "/m/01g317",
"nombre": "gato",
"puntuación": 0.89271355,
"polilimitante": {
"vértices normalizados": [
{"x": 0.1234, "y": 0.5678},
{"x": 0.5678, "y": 0.1234}
] }
},
{
"medio": "/m/04rky",
"nombre": "perro",
"puntuación": 0.8132468,
"polilimitante": {
"vértices normalizados": [
{"x": 0.4321, "y": 0.8765},
{"x": 0.8765, "y": 0.4321}
] }
}
]}
# Parse the API response response_data = json.loads(response) # Access the object annotations annotations = response_data['localizedObjectAnnotations'] # Iterate through the object annotations for annotation in annotations: # Extract relevant information object_name = annotation['name'] bounding_box = annotation['boundingPoly']['normalizedVertices'] confidence = annotation['score'] # Process or store the extracted information print(f"Object: {object_name}, Bounding Box: {bounding_box}, Confidence: {confidence}") # Output: # Object: cat, Bounding Box: [{'x': 0.1234, 'y': 0.5678}, {'x': 0.5678, 'y': 0.1234}], Confidence: 0.89271355 # Object: dog, Bounding Box: [{'x': 0.4321, 'y': 0.8765}, {'x': 0.8765, 'y': 0.4321}], Confidence: 0.8132468
En este ejemplo, asumimos una respuesta JSON que contiene dos objetos detectados: un gato y un perro. El código analiza la respuesta, accede al campo "localizedObjectAnnotations", recorre cada anotación de objeto y extrae el nombre del objeto, las coordenadas del cuadro delimitador y la puntuación de confianza. Finalmente, la información extraída se imprime, pero puedes modificar el código para adaptarlo a tus necesidades específicas.
Siguiendo estos pasos, podrá extraer eficazmente todas las anotaciones de objetos de la respuesta de la API en el campo de Inteligencia Artificial – API de Google Vision – Comprensión avanzada de imágenes – Detección de objetos.
Otras preguntas y respuestas recientes sobre Comprensión avanzada de imágenes:
- ¿Cuáles son algunas categorías predefinidas para el reconocimiento de objetos en la API de Google Vision?
- ¿Cuál es el enfoque recomendado para utilizar la función de detección de búsqueda segura en combinación con otras técnicas de moderación?
- ¿Cómo podemos acceder y mostrar los valores de probabilidad de cada categoría en la anotación de búsqueda segura?
- ¿Cómo podemos obtener la anotación de búsqueda segura usando la API de Google Vision en Python?
- ¿Cuáles son las cinco categorías incluidas en la función de detección de búsqueda segura?
- ¿Cómo detecta la función de búsqueda segura de la API de Google Vision contenido explícito dentro de las imágenes?
- ¿Cómo podemos identificar y resaltar visualmente los objetos detectados en una imagen utilizando la biblioteca de almohadas?
- ¿Cómo podemos organizar la información del objeto extraído en formato tabular utilizando el marco de datos de pandas?
- ¿Qué bibliotecas y lenguaje de programación se utilizan para demostrar la funcionalidad de la API de Google Vision?
- ¿Cómo realiza la API de Google Vision la detección y localización de objetos en imágenes?
Ver más preguntas y respuestas en Comprensión avanzada de imágenes