Facilita il porting del codice che utilizza tf.nn.embedding_lookup ().
sample_splits [i], embedding_indices [i] e aggregation_weights [i] corrispondono alla i-esima caratteristica. table_ids [i] indica quale tabella di incorporamento cercare con la funzione.
I tensori nelle posizioni corrispondenti in due delle liste di input, embedding_indices e aggregation_weights, devono avere la stessa forma, cioè rango 1 con dim_size () uguale al numero totale di ricerche nella tabella descritta dalla funzione corrispondente.
Classi annidate
classe | EnqueueTPUEmbeddingRaggedTensorBatch.Options | Attributi facoltativi per EnqueueTPUEmbeddingRaggedTensorBatch |
Metodi pubblici
static EnqueueTPUEmbeddingRaggedTensorBatch.Options | combinatori (List <String> combiners) |
static <T estende il numero, U estende il numero, V estende il numero> EnqueueTPUEmbeddingRaggedTensorBatch | create ( Scope scope, Iterable < Operand <T>> sampleSplits, Iterable < Operand <U>> embeddingIndices, Iterable < Operand <V>> aggregationWeights, Operand <String> modeOverride, List <Long> tableIds, Options ... options) Metodo Factory per creare una classe che racchiude una nuova operazione EnqueueTPUEmbeddingRaggedTensorBatch. |
static EnqueueTPUEmbeddingRaggedTensorBatch.Options | deviceOrdinal (dispositivo lungoOrdinale) |
static EnqueueTPUEmbeddingRaggedTensorBatch.Options | maxSequenceLengths (List <Long> maxSequenceLengths) |
Metodi ereditati
Metodi pubblici
public static EnqueueTPUEmbeddingRaggedTensorBatch.Options combiners (List <String> combiners)
Parametri
combinatori | Un elenco di scalari di stringa, uno per ciascuna tabella di incorporamento che specifica come normalizzare le attivazioni di incorporamento dopo la somma ponderata. I combinatori supportati sono "mean", "sum" o "sqrtn". Non è valido che la somma dei pesi sia 0 per "media" o la somma dei pesi al quadrato sia 0 per "sqrtn". Se i combinatori non vengono passati, l'impostazione predefinita è utilizzare "sum" per tutte le tabelle. |
---|
public static EnqueueTPUEmbeddingRaggedTensorBatch create ( Scope scope, Iterable < Operand <T>> sampleSplits, Iterable < Operand <U>> embeddingIndices, Iterable < Operand <V>> aggregationWeights, Operand <String> modeOverride, List <Long> tableIds, Options .. . opzioni)
Metodo factory per creare una classe che racchiude una nuova operazione EnqueueTPUEmbeddingRaggedTensorBatch.
Parametri
scopo | ambito attuale |
---|---|
sampleSplits | Un elenco di tensori di rango 1 che specificano i punti di interruzione per dividere embedding_indices e aggregation_weights in righe. Corrisponde a ids.row_splits in embedding_lookup (), quando ids è un RaggedTensor. |
embeddingIndices | Un elenco di tensori di rango 1, indici nelle tabelle di incorporamento. Corrisponde a ids.values in embedding_lookup (), quando ids è un RaggedTensor. |
aggregationWeights | Un elenco di tensori di livello 1 contenente i pesi di aggregazione degli esempi di addestramento. Corrisponde al campo dei valori di un RaggedTensor con gli stessi row_splits degli id in embedding_lookup (), quando ids è un RaggedTensor. |
modeOverride | Una stringa di input che sostituisce la modalità specificata in TPUEmbeddingConfiguration. I valori supportati sono {'unspecified', 'inference', 'training', 'backward_pass_only'}. Quando è impostato su "unspecified", viene utilizzata la modalità impostata in TPUEmbeddingConfiguration, altrimenti viene utilizzata mode_override. |
tableIds | Un elenco di numeri interi che specificano l'identificatore della tabella di incorporamento (offset di TableDescriptor in TPUEmbeddingConfiguration) per cercare l'input corrispondente. L'i esimo input viene cercato utilizzando table_ids [i]. La dimensione dell'elenco table_ids deve essere uguale a quella di sample_indices, embedding_indices e aggregation_weights. |
opzioni | trasporta valori di attributi opzionali |
ritorna
- una nuova istanza di EnqueueTPUEmbeddingRaggedTensorBatch
public static EnqueueTPUEmbeddingRaggedTensorBatch.Options deviceOrdinal (Long deviceOrdinal)
Parametri
deviceOrdinal | Il dispositivo TPU da utilizzare. Deve essere> = 0 e inferiore al numero di core TPU nell'attività su cui è posizionato il nodo. |
---|