classe finale publique BlockLSTMGrad
Calcule la propagation vers l'arrière de la cellule LSTM pour toute la séquence temporelle.
Cette implémentation doit être utilisée conjointement avec BlockLSTMV2.
Constantes
| Chaîne | OP_NAME | Le nom de cette opération, tel que connu par le moteur principal TensorFlow | 
Méthodes publiques
| Sortie <T> |  bGrad ()  Le gradient pour w à étayer en arrière. | 
| statique <T étend TNumber > BlockLSTMGrad <T> |  créer ( Portée de portée , Opérande < TInt64 > seqLenMax, Opérande <T> x, Opérande <T> csPrev, Opérande <T> hPrev, Opérande <T> w, Opérande <T> wci, Opérande <T> wcf, Opérande <T > wco, Opérande <T> b, Opérande <T> i, Opérande <T> cs, Opérande <T> f, Opérande <T> o, Opérande <T> ci, Opérande <T> co, Opérande <T> h , Opérande <T> csGrad, Opérande <T> hGrad, Booléen usePeephole)  Méthode d'usine pour créer une classe encapsulant une nouvelle opération BlockLSTMGrad. | 
| Sortie <T> |  csPrevGrad ()  Le dégradé de cs_prev à rétro-étayer. | 
| Sortie <T> |  hPrevGrad ()  Le dégradé de h_prev à rétro-étayer. | 
| Sortie <T> |  wGrad ()  Le gradient pour w à étayer en arrière. | 
| Sortie <T> |  wcfGrad ()  Le dégradé pour que WCF soit arrière-propagé. | 
| Sortie <T> |  wciGrad ()  Le dégradé pour que wci soit soutenu en arrière. | 
| Sortie <T> |  wcoGrad ()  Le gradient pour que WCO soit étayé en arrière. | 
| Sortie <T> |  xGrad ()  Le dégradé de x à étayer en arrière.  | 
Méthodes héritées
Constantes
chaîne finale statique publique OP_NAME
Le nom de cette opération, tel que connu par le moteur principal TensorFlow
 Valeur constante : "BlockLSTMGradV2" 
Méthodes publiques
public static BlockLSTMGrad <T> créer ( Portée de portée , Opérande < TInt64 > seqLenMax, Opérande <T> x, Opérande <T> csPrev, Opérande <T> hPrev, Opérande <T> w, Opérande <T> wci, Opérande <T > wcf, Opérande <T> wco, Opérande <T> b, Opérande <T> i, Opérande <T> cs, Opérande <T> f, Opérande <T> o, Opérande <T> ci, Opérande <T> co , Opérande <T> h, Opérande <T> csGrad, Opérande <T> hGrad, Booléen usePeephole)
Méthode d'usine pour créer une classe encapsulant une nouvelle opération BlockLSTMGrad.
Paramètres
| portée | portée actuelle | 
|---|---|
| seqLenMax | Durée maximale réellement utilisée par cette entrée. Les sorties sont complétées par des zéros au-delà de cette longueur. | 
| X | La séquence entrée dans le LSTM, forme (timelen, batch_size, num_inputs). | 
| csPrév | Valeur de l'état initial de la cellule. | 
| hPréc | Sortie initiale de la cellule (à utiliser pour judas). | 
| w | La matrice de poids. | 
| wci | La matrice de poids pour la connexion des judas de la porte d’entrée. | 
| WCF | La matrice de poids pour la connexion des judas du portail oublié. | 
| wco | La matrice de poids pour la connexion des judas de la porte de sortie. | 
| b | Le vecteur de biais. | 
| je | La porte d'entrée sur toute la séquence temporelle. | 
| cs | L'état de la cellule avant le tanh sur toute la séquence temporelle. | 
| F | La porte oubliée sur toute la séquence temporelle. | 
| o | La porte de sortie sur toute la séquence temporelle. | 
| ci | La cellule est entrée sur toute la séquence temporelle. | 
| co | La cellule après le tanh sur toute la séquence temporelle. | 
| h | Le vecteur h de sortie sur toute la séquence temporelle. | 
| csGrad | Le gradient actuel de cs. | 
| diplômé | Le gradient du vecteur h. | 
| utiliserJudas | S'il faut utiliser des poids pour judas. | 
Retour
- une nouvelle instance de BlockLSTMGrad