文本搜索允许在语料库中搜索语义相似的文本。它的工作原理是将搜索查询嵌入到表示查询语义的高维向量中,然后在预定义的自定义索引中使用 ScaNN(可扩缩最近邻)进行相似度搜索。
与文本分类(例如,BERT 自然语言分类器)不同,扩展可识别的项的数量不需要重新训练整个模型。只需重新构建索引即可添加新的项。这还可以处理更大(超过 10 万项)的语料库。
使用 Task Library TextSearcher
API 将您的自定义文本搜索器部署到您的移动应用中。
TextSearcher API 的主要功能
将单个字符串作为输入,在索引中执行嵌入向量提取和最近邻搜索。
输入文本处理,包括对输入文本的计算图内或计算图外的 Wordpiece 或 Sentencepiece 标记。
前提条件
在使用 TextSearcher
API 之前,需要基于要搜索的自定义语料库构建索引。这可以使用 Model Maker Searcher API 按照并改编教程来实现。
为此,您需要进行以下准备:
- TFLite 文本嵌入器模型,如通用语句编码器。例如,
- 您的文本语料库。
完成这一步后,您应该有了一个独立的 TFLite 搜索器模型(例如,mobilenet_v3_searcher.tflite
),它是原始的文本嵌入器模型,并将索引附加到 TFLite 模型元数据中。
用 Java 运行推断
步骤 1:导入 Gradle 依赖项和其他设置
将 .tflite
搜索器模型文件复制到将要运行模型的 Android 模块的资源目录下。指定不压缩该文件,并将 TensorFlow Lite 库添加到模块的 build.gradle
文件中。
android {
// Other settings
// Specify tflite index file should not be compressed for the app apk
aaptOptions {
noCompress "tflite"
}
}
dependencies {
// Other dependencies
// Import the Task Vision Library dependency (NNAPI is included)
implementation 'org.tensorflow:tensorflow-lite-task-vision:0.4.4'
// Import the GPU delegate plugin Library for GPU inference
implementation 'org.tensorflow:tensorflow-lite-gpu-delegate-plugin:0.4.4'
}
第 2 步:使用模型
// Initialization
TextSearcherOptions options =
TextSearcherOptions.builder()
.setBaseOptions(BaseOptions.builder().useGpu().build())
.setSearcherOptions(
SearcherOptions.builder().setL2Normalize(true).build())
.build();
TextSearcher textSearcher =
textSearcher.createFromFileAndOptions(context, modelFile, options);
// Run inference
List<NearestNeighbor> results = textSearcher.search(text);
请参阅源代码和 Javadoc,了解有关配置 TextSearcher
的更多选项。
用 C++ 运行推断
// Initialization
TextSearcherOptions options;
options.mutable_base_options()->mutable_model_file()->set_file_name(model_path);
options.mutable_embedding_options()->set_l2_normalize(true);
std::unique_ptr<TextSearcher> text_searcher = TextSearcher::CreateFromOptions(options).value();
// Run inference with your input, `input_text`.
const SearchResult result = text_searcher->Search(input_text).value();
请参阅源代码,了解有关配置 TextSearcher
的更多选项。
在 Python 中运行推断
第 1 步:安装 TensorFlow Lite Support Pypi 软件包
您可以使用以下命令安装 TensorFlow Lite Support Pypi 软件包:
pip install tflite-support
第 2 步:使用模型
from tflite_support.task import text
# Initialization
text_searcher = text.TextSearcher.create_from_file(model_path)
# Run inference
result = text_searcher.search(text)
请参阅源代码,了解有关配置 TextSearcher
的更多选项。
结果示例
Results:
Rank#0:
metadata: The sun was shining on that day.
distance: 0.04618
Rank#1:
metadata: It was a sunny day.
distance: 0.10856
Rank#2:
metadata: The weather was excellent.
distance: 0.15223
Rank#3:
metadata: The cat is chasing after the mouse.
distance: 0.34271
Rank#4:
metadata: He was very happy with his newly bought car.
distance: 0.37703
用您自己的模型和测试数据试用简单的 TextSearcher CLI 演示工具。