Fonctions de perte intégrées.
Constantes
int | CANAUX_FIRST | |
int | CANAUX_LAST | |
flotter | Épisilon | Facteur Fuzz par défaut. |
Constructeurs Publics
Pertes () |
Méthodes publiques
statique <T étend TNumber > Opérande <T> | binaireCrossentropy (Ops tf, Operand <? extends TNumber > labels, Operand <T> prédictions, boolean fromLogits, float labelSmoothing) Calcule la perte d'entropie croisée binaire entre les étiquettes et les prédictions. |
statique <T étend TNumber > Opérande <T> | categoricalCrossentropy (Ops tf, Operand <? extends TNumber > labels, Operand <T> prédictions, boolean fromLogits, float labelSmoothing, int axis) Calcule la perte d'entropie croisée catégorielle entre les étiquettes et les prédictions. |
statique <T étend TNumber > Opérande <T> | categoricalHinge (Ops tf, Operand <? extends TNumber > labels, Operand <T> prédictions) Calcule la perte de charnière catégorielle entre les étiquettes et les prédictions. |
statique <T étend TNumber > Opérande <T> | cosineSimilarity (Ops tf, Operand <? extends TNumber > labels, Operand <T> prédictions, int[] axis) Calcule la perte de similarité cosinus entre les étiquettes et les prédictions. |
statique <T étend TNumber > Opérande <T> | |
statique <T étend TNumber > Opérande <T> | |
statique <T étend TNumber > Opérande <T> | kullbackLeiblerDivergence (Ops tf, Operand <? extends TNumber > labels, Operand <T> prédictions) Calcule la perte de divergence Kullback-Leibler entre les étiquettes et les prédictions. |
statique <T étend TNumber > Opérande <T> | l2Normalize (Ops tf, Opérande <T> x, axe int[]) Normalise le long de l'axe des dimensions à l'aide d'une norme L2. |
statique <T étend TNumber > Opérande <T> | |
statique <T étend TNumber > Opérande <T> | MeanAbsoluteError (Ops tf, Operand <? extends TNumber > labels, Operand <T> prédictions) Calcule l'erreur absolue moyenne entre les étiquettes et les prédictions. |
statique <T étend TNumber > Opérande <T> | MeanAbsolutePercentageError (Ops tf, Operand <? extends TNumber > labels, Operand <T> prédictions) Calcule le pourcentage d’erreur absolu moyen entre les étiquettes et les prédictions. |
statique <T étend TNumber > Opérande <T> | MeanSquaredError (Ops tf, Operand <? extends TNumber > labels, Operand <T> prédictions) Calcule l'erreur quadratique moyenne entre les étiquettes et les prédictions. |
statique <T étend TNumber > Opérande <T> | MeanSquaredLogarithmicError (Ops tf, Operand <? extends TNumber > labels, Operand <T> prédictions) Calcule l’erreur logarithmique quadratique moyenne entre les étiquettes et les prédictions. |
statique <T étend TNumber > Opérande <T> | |
statique <T étend TNumber > Opérande <T> | sparseCategoricalCrossentropy (Ops tf, Operand <? extends TNumber > labels, Operand <T> prédictions, boolean fromLogits, int axis) Calcule la perte d'entropie croisée catégorielle clairsemée entre les étiquettes et les prédictions. |
statique <T étend TNumber > Opérande <T> | squaredHinge (Ops tf, Operand <? extends TNumber > labels, Operand <T> prédictions) Calcule la perte de charnière carrée entre les étiquettes et les prédictions. |
Méthodes héritées
Constantes
public statique final int CHANNELS_FIRST
public statique final int CHANNELS_LAST
flotteur final statique public EPSILON
Facteur Fuzz par défaut.
Constructeurs Publics
Pertes publiques ()
Méthodes publiques
public static Operand <T> binaireCrossentropy (Ops tf, Operand <? extends TNumber > labels, Operand <T> prédictions, boolean fromLogits, float labelSmoothing)
Calcule la perte d'entropie croisée binaire entre les étiquettes et les prédictions.
Paramètres
tf | les opérations TensorFlow |
---|---|
étiquettes | véritables cibles |
prédictions | les prédictions |
deLogits | S'il faut interpréter les prédictions comme un tenseur de valeurs logit |
labelLissage | Un nombre compris entre [0, 1]. Lorsque 0, aucun lissage ne se produit. Lorsque > 0, calculez la perte entre les étiquettes prédites et une version lissée des véritables étiquettes, où le lissage réduit les étiquettes vers 0,5. Des valeurs plus élevées de labelSmoothing correspondent à un lissage plus important. |
Retours
- la perte d'entropie croisée binaire.
public static Operand <T> categoricalCrossentropy (Ops tf, Operand <? extends TNumber > labels, Operand <T> prédictions, boolean fromLogits, float labelSmoothing, int axis)
Calcule la perte d'entropie croisée catégorielle entre les étiquettes et les prédictions.
Paramètres
tf | les opérations TensorFlow |
---|---|
étiquettes | véritables cibles |
prédictions | les prédictions |
deLogits | S'il faut interpréter les prédictions comme un tenseur de valeurs logit |
labelLissage | Flottez dans [0, 1] . Lorsque > 0 , les valeurs des étiquettes sont lissées, ce qui signifie que la confiance dans les valeurs des étiquettes est assouplie. par exemple labelSmoothing=0.2 signifie que nous utiliserons une valeur de 0.1 pour l'étiquette 0 et 0.9 pour l'étiquette 1 |
axe | le |
Retours
- la perte catégorique de crossentropie.
public static Operand <T> categoricalHinge (Ops tf, Operand <? extends TNumber > labels, Operand <T> prédictions)
Calcule la perte de charnière catégorielle entre les étiquettes et les prédictions.
Paramètres
tf | les opérations TensorFlow |
---|---|
étiquettes | véritables cibles, les valeurs devraient être 0 ou 1. |
prédictions | les prédictions |
Retours
- la perte catégorique de la charnière
public static Operand <T> cosineSimilarity (Ops tf, Operand <? extends TNumber > labels, Operand <T> prédictions, int[] axis)
Calcule la perte de similarité cosinus entre les étiquettes et les prédictions.
Notez qu'il s'agit d'un nombre compris entre -1
et 1
, ce qui est différent de la définition mathématique de la similarité cosinus où 1
représente des vecteurs similaires et 0
représente des vecteurs différents. Dans cette fonction, les nombres sont inversés dans une plage de -1
à 1
. Lorsqu'il s'agit d'un nombre négatif compris entre -1
et 0
, 0
indique une orthogonalité et des valeurs plus proches de -1
indiquent une plus grande similarité. Les valeurs plus proches de 1
indiquent une plus grande dissemblance. Cela le rend utilisable comme fonction de perte dans un contexte où vous essayez de maximiser la proximité entre les prédictions et les cibles. Si les étiquettes ou les prédictions sont un vecteur nul, la similarité cosinus sera de 0
quelle que soit la proximité entre les prédictions et les cibles.
loss = -sum(l2Norm(labels) * l2Norm(predictions))
Paramètres
tf | les opérations TensorFlow |
---|---|
étiquettes | véritables cibles |
prédictions | les prédictions |
axe | Axe le long duquel déterminer la similarité. |
Retours
- la perte de similarité cosinus
Charnière d'opérande statique publique <T> (Ops tf, opérande <? étend les étiquettes TNumber >, prédictions d'opérande <T>)
Calcule la perte de charnière entre les étiquettes et les prédictions
loss = reduceMean(maximum(1 - labels * predictions, 0))
Paramètres
tf | les opérations TensorFlow |
---|---|
étiquettes | vraies cibles, les valeurs devraient être -1 ou 1. Si des étiquettes binaires (0 ou 1) sont fournies, elles seront converties en -1 ou 1. |
prédictions | les prédictions |
Retours
- la perte de charnière
public static Operand <T> huber (Ops tf, Operand <? extends TNumber > labels, Operand <T> prédictions, float delta)
Calcule la perte de Huber entre les étiquettes et les prédictions.
Pour chaque valeur x en erreur = étiquettes - prédictions :
loss = 0.5 * x^2 if |x| <= d loss = 0.5 * d^2 + d * (|x| - d) if |x| > d
où d est delta.
Paramètres
tf | les opérations TensorFlow |
---|---|
étiquettes | véritables cibles |
prédictions | les prédictions |
delta | le point où la fonction de perte de Huber passe de quadratique à linéaire. |
Retours
- la perte de Huber
public static Operand <T> kullbackLeiblerDivergence (Ops tf, Operand <? extends TNumber > labels, Operand <T> prédictions)
Calcule la perte de divergence Kullback-Leibler entre les étiquettes et les prédictions.
Paramètres
tf | les opérations TensorFlow |
---|---|
étiquettes | véritables cibles |
prédictions | les prédictions |
Retours
- la perte de divergence Kullback-Leibler
Voir aussi
Opérande statique public <T> l2Normalize (Ops tf, Opérande <T> x, axe int[])
Normalise le long de l'axe des dimensions à l'aide d'une norme L2.
Paramètres
tf | Les opérations TensorFlow |
---|---|
x | l'entrée |
axe | Dimension le long de laquelle normaliser. |
Retours
- les valeurs normalisées basées sur la norme L2
public static Operand <T> logCosh (Ops tf, Operand <? extends TNumber > labels, Operand <T> prédictions)
Calcule la perte de cosinus hyperbolique entre les étiquettes et les prédictions.
log(cosh(x))
est approximativement égal à (x ** 2) / 2
pour le petit x
et à abs(x) - log(2)
pour le grand x
. Cela signifie que « logCosh » fonctionne principalement comme l'erreur quadratique moyenne, mais ne sera pas aussi fortement affecté par les prédictions occasionnelles extrêmement incorrectes.
Paramètres
tf | les opérations TensorFlow |
---|---|
étiquettes | véritables cibles |
prédictions | les prédictions |
Retours
- la perte de divergence hyperbolique en cosinus
Opérande statique public <T> MeanAbsoluteError (Ops tf, Opérande <? étend les étiquettes TNumber >, Prédictions de l'Opérande <T>)
Calcule l'erreur absolue moyenne entre les étiquettes et les prédictions.
loss = reduceMean(abs(labels - predictions))
Paramètres
tf | Les opérations TensorFlow |
---|---|
étiquettes | les étiquettes |
prédictions | les prédictions |
Retours
- l'erreur absolue moyenne
Opérande statique public <T> MeanAbsolutePercentageError (Ops tf, Opérande <? étend les étiquettes TNumber >, Prédictions de l'Opérande <T>)
Calcule le pourcentage d’erreur absolu moyen entre les étiquettes et les prédictions.
loss = 100 * reduceMean(abs((labels - predictions) / labels))
Paramètres
tf | Les opérations TensorFlow |
---|---|
étiquettes | les étiquettes |
prédictions | les prédictions |
Retours
- l'erreur absolue moyenne en pourcentage
Opérande statique public <T> MeanSquaredError (Ops tf, Opérande <? étend les étiquettes TNumber >, Prédictions de l'Opérande <T>)
Calcule l'erreur quadratique moyenne entre les étiquettes et les prédictions.
loss = reduceMean(square(labels - predictions))
Paramètres
tf | Les opérations TensorFlow |
---|---|
étiquettes | les étiquettes |
prédictions | les prédictions |
Retours
- l'erreur quadratique moyenne
Opérande statique public <T> MeanSquaredLogarithmicError (Ops tf, Opérande <? étend les étiquettes TNumber >, Prédictions de l'Opérande <T>)
Calcule l’erreur logarithmique quadratique moyenne entre les étiquettes et les prédictions.
loss = reduceMean(square(log(labels + 1) - log(predictions + 1)))
Paramètres
tf | Les opérations TensorFlow |
---|---|
étiquettes | les étiquettes |
prédictions | les prédictions |
Retours
- l'erreur logarithmique quadratique moyenne en pourcentage
public static Operand <T> poisson (Ops tf, Operand <? extends TNumber > labels, Operand <T> prédictions)
Calcule la perte de Poisson entre les étiquettes et les prédictions.
La perte de Poisson est la moyenne des éléments des predictions - labels * log(predictions)
.
Paramètres
tf | les opérations TensorFlow |
---|---|
étiquettes | véritables cibles |
prédictions | les prédictions |
Retours
- la perte de Poisson
public static Operand <T> sparseCategoricalCrossentropy (Ops tf, Operand <? extends TNumber > labels, Operand <T> prédictions, boolean fromLogits, int axis)
Calcule la perte d'entropie croisée catégorielle clairsemée entre les étiquettes et les prédictions.
Paramètres
tf | les opérations TensorFlow |
---|---|
étiquettes | véritables cibles |
prédictions | les prédictions |
deLogits | Indique si les prédictions doivent être des logits. Par défaut, on suppose que les prédictions codent une distribution de probabilité. |
axe | Dimension selon laquelle l'entropie est calculée. |
Retours
- la faible perte de crossentropie catégorique
public static Operand <T> squaredHinge (Ops tf, Operand <? extends TNumber > labels, Operand <T> prédictions)
Calcule la perte de charnière carrée entre les étiquettes et les prédictions.
loss = reduceMean(square(maximum(1 - labels * predictions, 0)))
Paramètres
tf | les opérations TensorFlow |
---|---|
étiquettes | vraies cibles, les valeurs devraient être -1 ou 1. Si des étiquettes binaires (0 ou 1) sont * fournies, elles seront converties en -1 ou 1. |
prédictions | les prédictions |
Retours
- la perte de charnière carrée