Интеграция поисковиков изображений

Поиск изображений позволяет искать похожие изображения в базе изображений. Он работает путем внедрения поискового запроса в многомерный вектор, представляющий семантическое значение запроса, с последующим поиском по сходству в предопределенном пользовательском индексе с использованием ScaNN (масштабируемые ближайшие соседи).

В отличие от классификации изображений , расширение количества распознаваемых элементов не требует повторного обучения всей модели. Новые элементы можно добавлять, просто перестраивая индекс. Это также позволяет работать с более крупными (более 100 тыс. элементов) базами данных изображений.

Используйте API ImageSearcher библиотеки задач, чтобы развернуть собственный поисковик изображений в мобильных приложениях.

Ключевые особенности API ImageSearcher

  • Принимает одно изображение в качестве входных данных, выполняет извлечение встраивания и поиск ближайшего соседа в индексе.

  • Обработка входного изображения, включая вращение, изменение размера и преобразование цветового пространства.

  • Область интереса входного изображения.

Предварительные условия

Прежде чем использовать API ImageSearcher , необходимо создать индекс на основе специального набора изображений для поиска. Этого можно достичь с помощью API Model Maker Searcher, следуя и адаптировав руководство .

Для этого вам понадобится:

  • модель устройства для внедрения изображений TFLite, такая как mobilenet v3 . Ознакомьтесь с другими предварительно обученными моделями для внедрения (также известными как векторные модели функций) из коллекции модулей изображений Google на TensorFlow Hub .
  • ваш корпус изображений.

После этого шага у вас должна быть автономная модель поиска TFLite (например, mobilenet_v3_searcher.tflite ), которая представляет собой исходную модель встроенного изображения с индексом, прикрепленным к метаданным модели TFLite .

Запустить вывод в Java

Шаг 1. Импортируйте зависимости Gradle и другие настройки.

Скопируйте файл модели поисковика .tflite в каталог ресурсов модуля Android, где будет запускаться модель. Укажите, что файл не должен быть сжат, и добавьте библиотеку TensorFlow Lite в файл build.gradle модуля:

android {
    // Other settings

    // Specify tflite index file should not be compressed for the app apk
    aaptOptions {
        noCompress "tflite"
    }

}

dependencies {
    // Other dependencies

    // Import the Task Vision Library dependency (NNAPI is included)
    implementation 'org.tensorflow:tensorflow-lite-task-vision:0.4.4'
    // Import the GPU delegate plugin Library for GPU inference
    implementation 'org.tensorflow:tensorflow-lite-gpu-delegate-plugin:0.4.4'
}

Шаг 2: Использование модели

// Initialization
ImageSearcherOptions options =
    ImageSearcherOptions.builder()
        .setBaseOptions(BaseOptions.builder().useGpu().build())
        .setSearcherOptions(
            SearcherOptions.builder().setL2Normalize(true).build())
        .build();
ImageSearcher imageSearcher =
    ImageSearcher.createFromFileAndOptions(context, modelFile, options);

// Run inference
List<NearestNeighbor> results = imageSearcher.search(image);

Дополнительные параметры настройки ImageSearcher см. в исходном коде и документации Javadoc .

Запустить вывод на C++

// Initialization
ImageSearcherOptions options;
options.mutable_base_options()->mutable_model_file()->set_file_name(model_path);
options.mutable_embedding_options()->set_l2_normalize(true);
std::unique_ptr<ImageSearcher> image_searcher = ImageSearcher::CreateFromOptions(options).value();

// Create input frame_buffer from your inputs, `image_data` and `image_dimension`.
// See more information here: tensorflow_lite_support/cc/task/vision/utils/frame_buffer_common_utils.h
std::unique_ptr<FrameBuffer> frame_buffer = CreateFromRgbRawBuffer(
      image_data, image_dimension);

// Run inference
const SearchResult result = image_searcher->Search(*frame_buffer).value();

Дополнительные параметры настройки ImageSearcher см. в исходном коде .

Запустить вывод в Python

Шаг 1. Установите пакет поддержки Pypi TensorFlow Lite.

Вы можете установить пакет поддержки Pypi TensorFlow Lite, используя следующую команду:

pip install tflite-support

Шаг 2: Использование модели

from tflite_support.task import vision

# Initialization
image_searcher = vision.ImageSearcher.create_from_file(model_path)

# Run inference
image = vision.TensorImage.create_from_file(image_file)
result = image_searcher.search(image)

Дополнительные параметры настройки ImageSearcher см. в исходном коде .

Примеры результатов

Results:
 Rank#0:
  metadata: burger
  distance: 0.13452
 Rank#1:
  metadata: car
  distance: 1.81935
 Rank#2:
  metadata: bird
  distance: 1.96617
 Rank#3:
  metadata: dog
  distance: 2.05610
 Rank#4:
  metadata: cat
  distance: 2.06347

Попробуйте простой демонстрационный инструмент CLI для ImageSearcher с собственной моделью и тестовыми данными.