Attend the Women in ML Symposium on December 7 Register now

集成文本搜索器

文本搜索允许在语料库中搜索语义相似的文本。它的工作原理是将搜索查询嵌入到表示查询语义的高维向量中,然后在预定义的自定义索引中使用 ScaNN(可扩缩最近邻)进行相似度搜索。

与文本分类(例如,BERT 自然语言分类器)不同,扩展可识别的项的数量不需要重新训练整个模型。只需重新构建索引即可添加新的项。这还可以处理更大(超过 10 万项)的语料库。

使用 Task Library TextSearcher API 将您的自定义文本搜索器部署到您的移动应用中。

TextSearcher API 的主要功能

  • 将单个字符串作为输入,在索引中执行嵌入向量提取和最近邻搜索。

  • 输入文本处理,包括对输入文本的计算图内或计算图外的 WordpieceSentencepiece 标记。

前提条件

在使用 TextSearcher API 之前,需要基于要搜索的自定义语料库构建索引。这可以使用 Model Maker Searcher API 按照并改编教程来实现。

为此,您需要进行以下准备:

  • TFLite 文本嵌入器模型,如通用语句编码器。例如,
    • 在此 Colab 中重新训练,并针对设备端推断进行了优化的模型。在 Pixel 6 上查询一个文本字符串只需要 6ms。
    • 量化模型,比上述模型小,但每个嵌入向量查询需要 38ms。
  • 您的文本语料库。

完成这一步后,您应该有了一个独立的 TFLite 搜索器模型(例如,mobilenet_v3_searcher.tflite),它是原始的文本嵌入器模型,并将索引附加到 TFLite 模型元数据中。

用 Java 运行推断

步骤 1:导入 Gradle 依赖项和其他设置

.tflite 搜索器模型文件复制到将要运行模型的 Android 模块的资源目录下。指定不压缩该文件,并将 TensorFlow Lite 库添加到模块的 build.gradle 文件中。

android {
    // Other settings

    // Specify tflite index file should not be compressed for the app apk
    aaptOptions {
        noCompress "tflite"
    }

}

dependencies {
    // Other dependencies

    // Import the Task Vision Library dependency (NNAPI is included)
    implementation 'org.tensorflow:tensorflow-lite-task-vision:0.4.0'
    // Import the GPU delegate plugin Library for GPU inference
    implementation 'org.tensorflow:tensorflow-lite-gpu-delegate-plugin:0.4.0'
}

第 2 步:使用模型

// Initialization
TextSearcherOptions options =
    TextSearcherOptions.builder()
        .setBaseOptions(BaseOptions.builder().useGpu().build())
        .setSearcherOptions(
            SearcherOptions.builder().setL2Normalize(true).build())
        .build();
TextSearcher textSearcher =
    textSearcher.createFromFileAndOptions(context, modelFile, options);

// Run inference
List<NearestNeighbor> results = textSearcher.search(text);

请参阅源代码和 Javadoc,了解有关配置 TextSearcher 的更多选项。

用 C++ 运行推断

// Initialization
TextSearcherOptions options;
options.mutable_base_options()->mutable_model_file()->set_file_name(model_path);
options.mutable_embedding_options()->set_l2_normalize(true);
std::unique_ptr<TextSearcher> text_searcher = TextSearcher::CreateFromOptions(options).value();

// Run inference with your input, `input_text`.
const SearchResult result = text_searcher->Search(input_text).value();

请参阅源代码,了解有关配置 TextSearcher 的更多选项。

在 Python 中运行推断

第 1 步:安装 TensorFlow Lite Support Pypi 软件包

您可以使用以下命令安装 TensorFlow Lite Support Pypi 软件包:

pip install tflite-support

第 2 步:使用模型

from tflite_support.task import text

# Initialization
text_searcher = text.TextSearcher.create_from_file(model_path)

# Run inference
result = text_searcher.search(text)

请参阅源代码,了解有关配置 TextSearcher 的更多选项。

结果示例

Results:
 Rank#0:
  metadata: The sun was shining on that day.
  distance: 0.04618
 Rank#1:
  metadata: It was a sunny day.
  distance: 0.10856
 Rank#2:
  metadata: The weather was excellent.
  distance: 0.15223
 Rank#3:
  metadata: The cat is chasing after the mouse.
  distance: 0.34271
 Rank#4:
  metadata: He was very happy with his newly bought car.
  distance: 0.37703

用您自己的模型和测试数据试用简单的 TextSearcher CLI 演示工具