TensorScatterSub

public final class TensorScatterSub

Sottrae gli "aggiornamenti" sparsi da un tensore esistente in base agli "indici".

Questa operazione crea un nuovo tensore sottraendo gli "aggiornamenti" sparsi dal "tensore" passato. Questa operazione è molto simile a `tf.scatter_nd_sub`, tranne per il fatto che gli aggiornamenti vengono sottratti da un tensore esistente (al contrario di una variabile). Se la memoria per il tensore esistente non può essere riutilizzata, viene eseguita e aggiornata una copia.

`indices` è un tensore intero contenente indici in un nuovo tensore di forma` shape`. L'ultima dimensione di "indici" può essere al massimo il rango di "forma":

indices.shape [-1] <= shape.rank

L'ultima dimensione di "indici" corrisponde agli indici in elementi (se "indices.shape [-1] = shape.rank`) o sezioni (se" indices.shape [-1] <shape.rank`) lungo gli indici di .shape [-1] `di` shape`. "update" è un tensore con forma

indices.shape [: - 1] + shape [indices.shape [-1]:]

La forma più semplice di tensor_scatter_sub consiste nel sottrarre singoli elementi da un tensore per indice. Ad esempio, supponiamo di voler inserire 4 elementi dispersi in un tensore di rango 1 con 8 elementi.

In Python, questa operazione di sottrazione a dispersione sarebbe simile a questa:

indices = tf.constant([[4], [3], [1], [7]])
     updates = tf.constant([9, 10, 11, 12])
     tensor = tf.ones([8], dtype=tf.int32)
     updated = tf.tensor_scatter_nd_sub(tensor, indices, updates)
     print(updated)
 
Il tensore risultante sarebbe simile a questo:

[1, -10, 1, -9, -8, 1, 1, -11]

Possiamo anche inserire intere fette di un tensore di rango più alto tutte in una volta. Ad esempio, se volessimo inserire due sezioni nella prima dimensione di un tensore di rango 3 con due matrici di nuovi valori.

In Python, questa operazione di aggiunta a dispersione sarebbe simile a questa:

indices = tf.constant([[0], [2]])
     updates = tf.constant([[[5, 5, 5, 5], [6, 6, 6, 6],
                             [7, 7, 7, 7], [8, 8, 8, 8]],
                            [[5, 5, 5, 5], [6, 6, 6, 6],
                             [7, 7, 7, 7], [8, 8, 8, 8]]])
     tensor = tf.ones([4, 4, 4],dtype=tf.int32)
     updated = tf.tensor_scatter_nd_sub(tensor, indices, updates)
     print(updated)
 
Il tensore risultante sarebbe simile a questo:

[[[-4, -4, -4, -4], [-5, -5, -5, -5], [-6, -6, -6, -6], [-7, -7 , -7, -7]], [[1, 1, 1, 1], [1, 1, 1, 1], [1, 1, 1, 1], [1, 1, 1, 1]] , [[-4, -4, -4, -4], [-5, -5, -5, -5], [-6, -6, -6, -6], [-7, -7 , -7, -7]], [[1, 1, 1, 1], [1, 1, 1, 1], [1, 1, 1, 1], [1, 1, 1, 1]] ]

Notare che sulla CPU, se viene trovato un indice fuori limite, viene restituito un errore. Sulla GPU, se viene trovato un indice fuori limite, l'indice viene ignorato.

Metodi pubblici

Uscita <T>
asOutput ()
Restituisce la maniglia simbolica di un tensore.
static <T, U estende Number> TensorScatterSub <T>
create ( ambito ambito, operando <T> tensore, operando <U> indici, operando <T> aggiornamenti)
Metodo Factory per creare una classe che esegue il wrapping di una nuova operazione TensorScatterSub.
Uscita <T>
output ()
Un nuovo tensore copiato dal tensore e aggiorna sottratto secondo gli indici.

Metodi ereditati

Metodi pubblici

output pubblico <T> asOutput ()

Restituisce la maniglia simbolica di un tensore.

Gli input per le operazioni TensorFlow sono output di un'altra operazione TensorFlow. Questo metodo viene utilizzato per ottenere un handle simbolico che rappresenta il calcolo dell'input.

public static TensorScatterSub <T> create ( ambito ambito, operando <T> tensore, operando <U> indici, operando <T> aggiornamenti)

Metodo Factory per creare una classe che esegue il wrapping di una nuova operazione TensorScatterSub.

Parametri
scopo ambito attuale
tensore Tensore da copiare / aggiornare.
indici Tensore dell'indice.
aggiornamenti Aggiornamenti per diffondersi nell'output.
ritorna
  • una nuova istanza di TensorScatterSub

output pubblico <T> output ()

Un nuovo tensore copiato dal tensore e aggiorna sottratto secondo gli indici.