Guía de procesamiento de texto de TensorFlow
Organiza tus páginas con colecciones
Guarda y categoriza el contenido según tus preferencias.
La guía de procesamiento de texto de TensorFlow documenta bibliotecas y flujos de trabajo para el procesamiento de lenguaje natural (NLP) y presenta conceptos importantes para trabajar con texto.
Keras PNL
KerasNLP es una biblioteca de procesamiento de lenguaje natural (NLP) de alto nivel que incluye todos los modelos más recientes basados en Transformer, así como utilidades de tokenización de nivel inferior. Es la solución recomendada para la mayoría de los casos de uso de NLP.
- Primeros pasos con KerasNLP : Aprenda KerasNLP realizando un análisis de sentimientos en niveles progresivos de complejidad, desde el uso de un modelo previamente entrenado hasta la construcción de su propio Transformer desde cero.
El módulo tf.strings
proporciona operaciones para trabajar con tensores de cadenas.
- Cadenas Unicode : represente cadenas Unicode en TensorFlow y manipúlelas usando equivalentes Unicode de operaciones de cadena estándar.
Texto de TensorFlow
Si necesita acceso a herramientas de procesamiento de texto de nivel inferior, puede usar TensorFlow Text. TensorFlow Text proporciona una colección de operaciones y bibliotecas para ayudarlo a trabajar con entradas en forma de texto, como cadenas de texto sin procesar o documentos.
Preprocesamiento
- Preprocesamiento de BERT con texto TF : use las operaciones de preprocesamiento de texto de TensorFlow para transformar datos de texto en entradas para BERT.
- Tokenización con TF Text : comprenda las opciones de tokenización proporcionadas por TensorFlow Text. Aprenda cuándo es posible que desee usar una opción sobre otra y cómo se llaman estos tokenizadores desde su modelo.
- Tokenizadores de subpalabras : genere un vocabulario de subpalabras a partir de un conjunto de datos y utilícelo para crear un
text.BertTokenizer
a partir del vocabulario.
Modelos TensorFlow – PNL
La biblioteca TensorFlow Models - NLP proporciona primitivos de Keras que se pueden ensamblar en modelos basados en Transformer y clases de andamios que permiten una fácil experimentación con arquitecturas novedosas.
Salvo que se indique lo contrario, el contenido de esta página está sujeto a la licencia Atribución 4.0 de Creative Commons, y los ejemplos de código están sujetos a la licencia Apache 2.0. Para obtener más información, consulta las políticas del sitio de Google Developers. Java es una marca registrada de Oracle o sus afiliados.
Última actualización: 2023-07-27 (UTC)
[null,null,["Última actualización: 2023-07-27 (UTC)"],[],[],null,["# TensorFlow text processing guide\n\n\u003cbr /\u003e\n\nThe TensorFlow text processing guide documents libraries and workflows for\nnatural language processing (NLP) and introduces important concepts for working\nwith text.\n\nKerasNLP\n--------\n\nKerasNLP is a high-level natural language processing (NLP) library that includes\nall the latest Transformer-based models as well as lower-level tokenization\nutilities. It's the recommended solution for most NLP use cases.\n\n- [Getting Started with KerasNLP](https://keras.io/guides/keras_nlp/getting_started/): Learn KerasNLP by performing sentiment analysis at progressive levels of complexity, from using a pre-trained model to building your own Transformer from scratch.\n\n[`tf.strings`](https://www.tensorflow.org/api_docs/python/tf/strings)\n---------------------------------------------------------------------\n\nThe [`tf.strings`](https://www.tensorflow.org/api_docs/python/tf/strings) module provides operations for working with string Tensors.\n\n- [Unicode strings](https://tensorflow.org/text/guide/unicode): Represent Unicode strings in TensorFlow and manipulate them using Unicode equivalents of standard string ops.\n\nTensorFlow Text\n---------------\n\nIf you need access to lower-level text processing tools, you can use TensorFlow\nText. TensorFlow Text provides a collection of ops and libraries to help you\nwork with input in text form such as raw text strings or documents.\n\n- [Introduction to TensorFlow Text](https://tensorflow.org/text/guide/tf_text_intro): Learn how to install TensorFlow Text or build it from source.\n- [Converting TensorFlow Text operators to TensorFlow Lite](https://tensorflow.org/text/guide/text_tf_lite): Convert a TensorFlow Text model to TensorFlow Lite for deployment to mobile, embedded, and IoT devices.\n\n### Pre-processing\n\n- [BERT Preprocessing with TF Text](https://tensorflow.org/text/guide/bert_preprocessing_guide): Use TensorFlow Text preprocessing ops to transform text data into inputs for BERT.\n- [Tokenizing with TF Text](https://tensorflow.org/text/guide/tokenizers): Understand the tokenization options provided by TensorFlow Text. Learn when you might want to use one option over another, and how these tokenizers are called from within your model.\n- [Subword tokenizers](https://tensorflow.org/text/guide/subwords_tokenizer): Generate a subword vocabulary from a dataset, and use it to build a [`text.BertTokenizer`](https://www.tensorflow.org/text/api_docs/python/text/BertTokenizer) from the vocabulary.\n\nTensorFlow models -- NLP\n------------------------\n\nThe TensorFlow Models - NLP library provides Keras primitives that can be\nassembled into Transformer-based models, and scaffold classes that enable easy\nexperimentation with novel architectures.\n\n- [Introduction to the TensorFlow Models NLP library](https://tensorflow.org/tfmodels/nlp): Build Transformer-based models for common NLP tasks including pre-training, span labelling, and classification using building blocks from the [NLP modeling library](https://github.com/tensorflow/models/tree/master/official/nlp/modeling).\n- [Customizing a Transformer Encoder](https://tensorflow.org/tfmodels/nlp/customize_encoder): Customize [`tfm.nlp.networks.EncoderScaffold`](https://www.tensorflow.org/api_docs/python/tfm/nlp/networks/EncoderScaffold), a bi-directional Transformer-based encoder network scaffold, to employ new network architectures."]]