classe finale publique BlockLSTMGrad
Calcule la propagation vers l'arrière de la cellule LSTM pour toute la séquence temporelle.
Cette implémentation doit être utilisée conjointement avec BlockLSTMV2.
Constantes
| Chaîne | OP_NAME | Le nom de cette opération, tel que connu par le moteur principal TensorFlow |
Méthodes publiques
| Sortie <T> | bGrad () Le gradient pour w à étayer en arrière. |
| statique <T étend TNumber > BlockLSTMGrad <T> | créer ( Portée de portée , Opérande < TInt64 > seqLenMax, Opérande <T> x, Opérande <T> csPrev, Opérande <T> hPrev, Opérande <T> w, Opérande <T> wci, Opérande <T> wcf, Opérande <T > wco, Opérande <T> b, Opérande <T> i, Opérande <T> cs, Opérande <T> f, Opérande <T> o, Opérande <T> ci, Opérande <T> co, Opérande <T> h , Opérande <T> csGrad, Opérande <T> hGrad, Booléen usePeephole) Méthode d'usine pour créer une classe encapsulant une nouvelle opération BlockLSTMGrad. |
| Sortie <T> | csPrevGrad () Le dégradé de cs_prev à rétro-étayer. |
| Sortie <T> | hPrevGrad () Le dégradé de h_prev à rétro-étayer. |
| Sortie <T> | wGrad () Le gradient pour w à étayer en arrière. |
| Sortie <T> | wcfGrad () Le dégradé pour que WCF soit arrière-propagé. |
| Sortie <T> | wciGrad () Le dégradé pour que wci soit soutenu en arrière. |
| Sortie <T> | wcoGrad () Le gradient pour que WCO soit étayé en arrière. |
| Sortie <T> | xGrad () Le dégradé de x à étayer en arrière. |
Méthodes héritées
Constantes
chaîne finale statique publique OP_NAME
Le nom de cette opération, tel que connu par le moteur principal TensorFlow
Valeur constante : "BlockLSTMGradV2"
Méthodes publiques
public static BlockLSTMGrad <T> créer ( Portée de portée , Opérande < TInt64 > seqLenMax, Opérande <T> x, Opérande <T> csPrev, Opérande <T> hPrev, Opérande <T> w, Opérande <T> wci, Opérande <T > wcf, Opérande <T> wco, Opérande <T> b, Opérande <T> i, Opérande <T> cs, Opérande <T> f, Opérande <T> o, Opérande <T> ci, Opérande <T> co , Opérande <T> h, Opérande <T> csGrad, Opérande <T> hGrad, Booléen usePeephole)
Méthode d'usine pour créer une classe encapsulant une nouvelle opération BlockLSTMGrad.
Paramètres
| portée | portée actuelle |
|---|---|
| seqLenMax | Durée maximale réellement utilisée par cette entrée. Les sorties sont complétées par des zéros au-delà de cette longueur. |
| X | La séquence entrée dans le LSTM, forme (timelen, batch_size, num_inputs). |
| csPrév | Valeur de l'état initial de la cellule. |
| hPréc | Sortie initiale de la cellule (à utiliser pour judas). |
| w | La matrice de poids. |
| wci | La matrice de poids pour la connexion des judas de la porte d’entrée. |
| WCF | La matrice de poids pour la connexion des judas du portail oublié. |
| wco | La matrice de poids pour la connexion des judas de la porte de sortie. |
| b | Le vecteur de biais. |
| je | La porte d'entrée sur toute la séquence temporelle. |
| cs | L'état de la cellule avant le tanh sur toute la séquence temporelle. |
| F | La porte oubliée sur toute la séquence temporelle. |
| o | La porte de sortie sur toute la séquence temporelle. |
| ci | La cellule est entrée sur toute la séquence temporelle. |
| co | La cellule après le tanh sur toute la séquence temporelle. |
| h | Le vecteur h de sortie sur toute la séquence temporelle. |
| csGrad | Le gradient actuel de cs. |
| diplômé | Le gradient du vecteur h. |
| utiliserJudas | S'il faut utiliser des poids pour judas. |
Retour
- une nouvelle instance de BlockLSTMGrad