חתימות נפוצות לטקסט
קל לארגן דפים בעזרת אוספים
אפשר לשמור ולסווג תוכן על סמך ההעדפות שלך.
דף זה מתאר חתימות נפוצות שיש ליישם על ידי מודולים בפורמט TF1 Hub עבור משימות המקבלות קלט טקסט. ( לפורמט TF2 SavedModel , ראה את ה- API האנלוגי של SavedModel .)
וקטור תכונת טקסט
מודול וקטור של תכונת טקסט יוצר ייצוג וקטור צפוף מתכונות טקסט. הוא מקבל אצווה של מחרוזות של צורה [batch_size]
וממפה אותן ל- float32
tensor של צורה [batch_size, N]
. זה נקרא לעתים קרובות הטבעת טקסט בממד N
שימוש בסיסי
embed = hub.Module("path/to/module")
representations = embed([
"A long sentence.",
"single-word",
"http://example.com"])
שימוש בעמודות תכונה
feature_columns = [
hub.text_embedding_column("comment", "path/to/module", trainable=False),
]
input_fn = tf.estimator.inputs.numpy_input_fn(features, labels, shuffle=True)
estimator = tf.estimator.DNNClassifier(hidden_units, feature_columns)
estimator.train(input_fn, max_steps=100)
הערות
מודולים הוכשרו מראש על תחומים ו/או משימות שונות, ולכן לא כל מודול וקטור של תכונת טקסט יתאים לבעיה שלך. לדוגמה: מודולים מסוימים יכלו להיות מאומנים בשפה אחת.
ממשק זה אינו מאפשר כוונון עדין של ייצוג הטקסט ב-TPUs, מכיוון שהוא מחייב את המודול להפעיל הן את עיבוד המחרוזות והן את המשתנים הניתנים לאימון בו-זמנית.
אלא אם צוין אחרת, התוכן של דף זה הוא ברישיון Creative Commons Attribution 4.0 ודוגמאות הקוד הן ברישיון Apache 2.0. לפרטים, ניתן לעיין במדיניות האתר Google Developers. Java הוא סימן מסחרי רשום של חברת Oracle ו/או של השותפים העצמאיים שלה.
עדכון אחרון: 2025-07-25 (שעון UTC).
[null,null,["עדכון אחרון: 2025-07-25 (שעון UTC)."],[],[],null,["# Common Signatures for Text\n\n\u003cbr /\u003e\n\nThis page describes common signatures that should be implemented by modules in\nthe [TF1 Hub format](../tf1_hub_module) for tasks that accept text inputs.\n(For the [TF2 SavedModel format](../tf2_saved_model), see the analogous\n[SavedModel API](../common_saved_model_apis/text).)\n\nText feature vector\n-------------------\n\nA **text feature vector** module creates a dense vector representation\nfrom text features.\nIt accepts a batch of strings of shape `[batch_size]` and maps them to\na `float32` tensor of shape `[batch_size, N]`. This is often called\n**text embedding** in dimension `N`.\n\n### Basic usage\n\n embed = hub.Module(\"path/to/module\")\n representations = embed([\n \"A long sentence.\",\n \"single-word\",\n \"http://example.com\"])\n\n### Feature column usage\n\n feature_columns = [\n hub.text_embedding_column(\"comment\", \"path/to/module\", trainable=False),\n ]\n input_fn = tf.estimator.inputs.numpy_input_fn(features, labels, shuffle=True)\n estimator = tf.estimator.DNNClassifier(hidden_units, feature_columns)\n estimator.train(input_fn, max_steps=100)\n\nNotes\n-----\n\nModules have been pre-trained on different domains and/or tasks,\nand therefore not every text feature vector module would be suitable for\nyour problem. E.g.: some modules could have been trained on a single language.\n\nThis interface does not allow fine-tuning of the text representation on TPUs,\nbecause it requires the module to instantiate both string processing and the\ntrainable variables at the same time."]]