Wbudowane funkcje utraty.
Stałe
| wew | KANAŁY_FIRST | |
| wew | KANAŁY_OSTATNIE | |
| platforma | EPSILON | Domyślny współczynnik rozmycia. |
Konstruktorzy publiczni
Straty () |
Metody publiczne
| statyczny <T rozszerza numer T > Operand <T> | binaryCrossentropy (Ops tf, Operand <? Extends TNumber > etykiety, przewidywania argumentu <T>, wartość logiczna zLogits, float labelSmoothing) Oblicza binarną stratę entropii krzyżowej między etykietami i przewidywaniami. |
| statyczny <T rozszerza numer T > Operand <T> | categoricalCrossentropy (Ops tf, Operand <? Extends TNumber > etykiety, przewidywania argumentu <T>, wartość logiczna fromLogits, float labelSmoothing, oś int) Oblicza kategoryczną utratę entropii krzyżowej między etykietami i prognozami. |
| statyczny <T rozszerza numer T > Operand <T> | categoricalHinge (Ops tf, Argument <? rozszerza TNumber > etykiety, przewidywania Argumentu <T>) Oblicza kategoryczną utratę zawiasów między etykietami i przewidywaniami. |
| statyczny <T rozszerza numer T > Operand <T> | cosinusSimilarity (Ops tf, Operand <? rozszerza TNumber > etykiety, przewidywania argumentu <T>, oś int[]) Oblicza utratę podobieństwa cosinus między etykietami i przewidywaniami. |
| statyczny <T rozszerza numer T > Operand <T> | |
| statyczny <T rozszerza numer T > Operand <T> | |
| statyczny <T rozszerza numer T > Operand <T> | kullbackLeiblerDivergence (Ops tf, Argument <? rozszerza TNumber > etykiety, przewidywania Argumentu <T>) Oblicza utratę dywergencji Kullbacka-Leiblera między etykietami i prognozami. |
| statyczny <T rozszerza numer T > Operand <T> | |
| statyczny <T rozszerza numer T > Operand <T> | |
| statyczny <T rozszerza numer T > Operand <T> | meanAbsoluteError (Ops tf, Argument <? rozszerza TNumber > etykiety, przewidywania Argumentu <T>) Oblicza średni błąd bezwzględny między etykietami i przewidywaniami. |
| statyczny <T rozszerza numer T > Operand <T> | meanAbsolutePercentageError (Ops tf, Argument <? rozszerza TNumber > etykiety, przewidywania Argumentu <T>) Oblicza średni bezwzględny błąd procentowy między etykietami i przewidywaniami. |
| statyczny <T rozszerza numer T > Operand <T> | meanSquaredError (Ops tf, Argument <? rozszerza TNumber > etykiety, przewidywania Argumentu <T>) Oblicza średni błąd kwadratowy między etykietami i przewidywaniami. |
| statyczny <T rozszerza numer T > Operand <T> | meanSquaredLogarithmicError (Ops tf, Argument <? rozszerza TNumber > etykiety, przewidywania Argumentu <T>) Oblicza średni kwadrat błędu logarytmicznego między etykietami i przewidywaniami. |
| statyczny <T rozszerza numer T > Operand <T> | |
| statyczny <T rozszerza numer T > Operand <T> | sparseCategoricalCrossentropy (Ops tf, Operand <? Extends TNumber > etykiety, przewidywania argumentu <T>, wartość logiczna fromLogits, oś int) Oblicza rzadką kategoryczną utratę entropii krzyżowej między etykietami i prognozami. |
| statyczny <T rozszerza numer T > Operand <T> | SquaredHinge (Ops tf, Argument <? rozszerza TNumber > etykiety, przewidywania Argumentu <T>) Oblicza kwadratową utratę zawiasów między etykietami i przewidywaniami. |
Metody dziedziczone
Stałe
publiczny statyczny końcowy int CHANNELS_FIRST
publiczny statyczny końcowy int CHANNELS_LAST
publiczny statyczny końcowy float EPSILON
Domyślny współczynnik rozmycia.
Konstruktorzy publiczni
Straty publiczne ()
Metody publiczne
public static Operand <T> binaryCrossentropy (Ops tf, Operand <? Extends TNumber > etykiety, przewidywania argumentu <T>, wartość logiczna fromLogits, float labelSmoothing)
Oblicza binarną stratę entropii krzyżowej między etykietami i przewidywaniami.
Parametry
| tf | operacji TensorFlow |
|---|---|
| etykiety | prawdziwe cele |
| prognozy | przewidywania |
| zLogits | Czy interpretować prognozy jako tensor wartości logitowych |
| etykietaWygładzanie | Liczba z zakresu [0, 1]. Gdy 0, wygładzanie nie występuje. Gdy > 0, oblicz stratę między przewidywanymi etykietami a wygładzoną wersją prawdziwych etykiet, gdzie wygładzanie ściska etykiety w kierunku 0,5. Większe wartości labelSmoothing odpowiadają intensywniejszemu wygładzaniu. |
Powroty
- binarna utrata crossentropii.
publiczny argument statyczny <T> categoricalCrossentropy (Ops tf, Operand <? Extends TNumber > etykiety, przewidywania argumentu <T>, wartość logiczna fromLogits, float labelSmoothing, oś int)
Oblicza kategoryczną utratę entropii krzyżowej między etykietami i prognozami.
Parametry
| tf | operacji TensorFlow |
|---|---|
| etykiety | prawdziwe cele |
| prognozy | przewidywania |
| zLogits | Czy interpretować przewidywania jako tensor wartości logitowych |
| etykietaWygładzanie | Pływak w [0, 1] . Gdy > 0 , wartości etykiet są wygładzane, co oznacza, że zaufanie do wartości etykiet jest zmniejszone. np. labelSmoothing=0.2 oznacza, że użyjemy wartości 0.1 dla etykiety 0 i 0.9 dla etykiety 1 |
| oś | the |
Powroty
- kategoryczna utrata crossentropii.
public static Operand <T> categoricalHinge (Ops tf, Operand <? Extends TNumber > etykiety, przewidywania argumentu <T>)
Oblicza kategoryczną utratę zawiasów między etykietami i przewidywaniami.
Parametry
| tf | operacji TensorFlow |
|---|---|
| etykiety | prawdziwe cele, oczekuje się, że wartości będą wynosić 0 lub 1. |
| prognozy | przewidywania |
Powroty
- kategoryczna utrata zawiasów
public static Operand <T> cosinusSimilarity (Ops tf, Operand <? Extends TNumber > etykiety, przewidywania argumentu <T>, oś int[])
Oblicza utratę podobieństwa cosinus między etykietami i przewidywaniami.
Należy zauważyć, że jest to liczba z zakresu od -1 do 1 , co różni się od matematycznej definicji podobieństwa cosinus, gdzie 1 oznacza podobne wektory, a 0 oznacza różne wektory. W tej funkcji liczby są odwracane w zakresie od -1 do 1 . Gdy jest to liczba ujemna z zakresu od -1 do 0 , 0 oznacza ortogonalność, a wartości bliższe -1 oznaczają większe podobieństwo. Wartości bliższe 1 wskazują na większą odmienność. Dzięki temu można jej używać jako funkcji straty w otoczeniu, w którym próbuje się zmaksymalizować bliskość między prognozami a celami. Jeśli etykieta lub przewidywanie jest wektorem zerowym, podobieństwo cosinus będzie wynosić 0 niezależnie od bliskości przewidywań i celów.
loss = -sum(l2Norm(labels) * l2Norm(predictions))
Parametry
| tf | operacji TensorFlow |
|---|---|
| etykiety | prawdziwe cele |
| prognozy | przewidywania |
| oś | Oś, wzdłuż której należy określić podobieństwo. |
Powroty
- utrata podobieństwa cosinusa
publiczny statyczny zawias argumentu <T> (Ops tf, argument <? rozszerza TNumber > etykiety, przewidywania argumentu <T>)
Oblicza utratę zawiasów między etykietami i przewidywaniami
loss = reduceMean(maximum(1 - labels * predictions, 0))
Parametry
| tf | operacji TensorFlow |
|---|---|
| etykiety | prawdziwe cele, oczekuje się, że wartości będą wynosić -1 lub 1. Jeśli podano etykiety binarne (0 lub 1), zostaną one przekonwertowane na -1 lub 1. |
| prognozy | przewidywania |
Powroty
- utrata zawiasów
public static Operand <T> huber (Ops tf, Operand <? Extends TNumber > etykiety, przewidywania argumentu <T>, float delta)
Oblicza stratę Hubera między etykietami i prognozami.
Dla każdej wartości x w błędzie = etykiety - przewidywania:
loss = 0.5 * x^2 if |x| <= d
loss = 0.5 * d^2 + d * (|x| - d) if |x| > d
gdzie d jest deltą.
Parametry
| tf | operacji TensorFlow |
|---|---|
| etykiety | prawdziwe cele |
| prognozy | przewidywania |
| delta | punkt, w którym funkcja straty Hubera zmienia się z kwadratowej na liniową. |
Powroty
- strata Hubera
public static Operand <T> kullbackLeiblerDivergence (Ops tf, Argument <? Extends TNumber > etykiety, przewidywania Argumentu <T>)
Oblicza utratę dywergencji Kullbacka-Leiblera między etykietami i prognozami.
Parametry
| tf | operacji TensorFlow |
|---|---|
| etykiety | prawdziwe cele |
| prognozy | przewidywania |
Powroty
- strata wynikająca z dywergencji Kullbacka-Leiblera
Zobacz także
publiczny argument statyczny <T> l2Normalize (Ops tf, argument <T> x, oś int[])
Normalizuje wzdłuż osi wymiaru przy użyciu normy L2.
Parametry
| tf | Operacje TensorFlow |
|---|---|
| X | wejście |
| oś | Wymiar, wzdłuż którego należy dokonać normalizacji. |
Powroty
- znormalizowane wartości w oparciu o normę L2
publiczny static Operand <T> logCosh (Ops tf, Argument <? rozszerza TNumber > etykiety, przewidywania Argumentu <T>)
Oblicza stratę cosinusa hiperbolicznego między etykietami i przewidywaniami.
log(cosh(x)) jest w przybliżeniu równe (x ** 2) / 2 dla małego x i abs(x) - log(2) dla dużego x . Oznacza to, że „logCosh” działa głównie jak błąd średniokwadratowy, ale sporadyczne bardzo nieprawidłowe przewidywania nie mają na niego tak dużego wpływu.
Parametry
| tf | operacji TensorFlow |
|---|---|
| etykiety | prawdziwe cele |
| prognozy | przewidywania |
Powroty
- utrata dywergencji hiperbolicznego cosinusa
publiczny operand statyczny <T> meanAbsoluteError (Ops tf, Argument <? rozszerza TNumber > etykiety, przewidywania Argumentu <T>)
Oblicza średni błąd bezwzględny między etykietami i przewidywaniami.
loss = reduceMean(abs(labels - predictions))
Parametry
| tf | Operacje TensorFlow |
|---|---|
| etykiety | etykiety |
| prognozy | przewidywania |
Powroty
- średni błąd bezwzględny
publiczny operand statyczny <T> meanAbsolutePercentageError (Ops tf, Argument <? rozszerza TNumber > etykiety, przewidywania Argumentu <T>)
Oblicza średni bezwzględny błąd procentowy między etykietami i przewidywaniami.
loss = 100 * reduceMean(abs((labels - predictions) / labels))
Parametry
| tf | Operacje TensorFlow |
|---|---|
| etykiety | etykiety |
| prognozy | przewidywania |
Powroty
- średni bezwzględny błąd procentowy
publiczny operand statyczny <T> meanSquaredError (Ops tf, Argument <? rozszerza TNumber > etykiety, przewidywania Argumentu <T>)
Oblicza średni błąd kwadratowy między etykietami i przewidywaniami.
loss = reduceMean(square(labels - predictions))
Parametry
| tf | Operacje TensorFlow |
|---|---|
| etykiety | etykiety |
| prognozy | przewidywania |
Powroty
- błąd średniokwadratowy
publiczny operand statyczny <T> meanSquaredLogarithmicError (Ops tf, Argument <? rozszerza TNumber > etykiety, przewidywania Argumentu <T>)
Oblicza średni kwadrat błędu logarytmicznego między etykietami i przewidywaniami.
loss = reduceMean(square(log(labels + 1) - log(predictions + 1)))
Parametry
| tf | Operacje TensorFlow |
|---|---|
| etykiety | etykiety |
| prognozy | przewidywania |
Powroty
- średni kwadratowy logarytmiczny błąd procentowy
publiczny statyczny operand <T> poisson (Ops tf, Argument <? rozszerza TNumber > etykiety, przewidywania Argumentu <T>)
Oblicza stratę Poissona między etykietami i prognozami.
Strata Poissona jest średnią elementów predictions - labels * log(predictions) .
Parametry
| tf | operacji TensorFlow |
|---|---|
| etykiety | prawdziwe cele |
| prognozy | przewidywania |
Powroty
- strata Poissona
publiczny argument statyczny <T> sparseCategoricalCrossentropy (Ops tf, Operand <? Extends TNumber > etykiety, przewidywania argumentu <T>, wartość logiczna zLogits, oś int)
Oblicza rzadką kategoryczną utratę entropii krzyżowej między etykietami i prognozami.
Parametry
| tf | operacji TensorFlow |
|---|---|
| etykiety | prawdziwe cele |
| prognozy | przewidywania |
| zLogits | Określa, czy oczekuje się, że prognozy będą logitami. Domyślnie zakłada się, że przewidywania kodują rozkład prawdopodobieństwa. |
| oś | Wymiar, według którego obliczana jest entropia. |
Powroty
- rzadka kategoryczna utrata crossentropii
publiczny static Operand <T> SquaredHinge (Ops tf, Argument <? rozszerza TNumber > etykiety, przewidywania Argumentu <T>)
Oblicza kwadratową utratę zawiasów między etykietami i przewidywaniami.
loss = reduceMean(square(maximum(1 - labels * predictions, 0)))
Parametry
| tf | operacji TensorFlow |
|---|---|
| etykiety | prawdziwe cele, oczekuje się, że wartości będą wynosić -1 lub 1. Jeśli podano * etykiety binarne (0 lub 1), zostaną one przekonwertowane na -1 lub 1. |
| prognozy | przewidywania |
Powroty
- kwadratowa strata zawiasu