Losses

Pérdidas de clase pública

Funciones de pérdida integradas.

Constantes

En t CANALES_PRIMERO
En t CANALES_ÚLTIMOS
flotar épsilón Factor de fuzz predeterminado.

Constructores Públicos

Métodos públicos

estático <T extiende TNumber > Operando <T>
binarioCrossentropy (Ops tf, Operando <? extiende etiquetas TNumber >, predicciones de Operando <T>, booleano fromLogits, etiqueta flotante Suavizado)
Calcula la pérdida de entropía cruzada binaria entre etiquetas y predicciones.
estático <T extiende TNumber > Operando <T>
categoricalCrossentropy (Ops tf, Operando <? extiende etiquetas TNumber >, predicciones de Operando <T>, booleano fromLogits, etiqueta flotante Suavizado, eje int)
Calcula la pérdida categórica de entropía cruzada entre etiquetas y predicciones.
estático <T extiende TNumber > Operando <T>
categoricalHinge (Ops tf, Operando <? extiende etiquetas TNumber >, predicciones del Operando <T>)
Calcula la pérdida de bisagra categórica entre etiquetas y predicciones.
estático <T extiende TNumber > Operando <T>
cosenoSimilaridad (Ops tf, Operando <? extiende etiquetas TNumber >, predicciones de Operando <T>, eje int[])
Calcula la pérdida de similitud del coseno entre etiquetas y predicciones.
estático <T extiende TNumber > Operando <T>
bisagra (Ops tf, Operando <? extiende etiquetas TNumber >, predicciones del Operando <T>)
Calcula la pérdida de bisagra entre etiquetas y predicciones.

loss = reduceMean(maximum(1 - labels * predictions, 0))

estático <T extiende TNumber > Operando <T>
huber (Ops tf, Operando <? extiende etiquetas TNumber >, predicciones de Operando <T>, delta flotante)
Calcula la pérdida de Huber entre etiquetas y predicciones.
estático <T extiende TNumber > Operando <T>
kullbackLeiblerDivergence (Ops tf, Operando <? extiende etiquetas TNumber >, predicciones del Operando <T>)
Calcula la pérdida de divergencia de Kullback-Leibler entre etiquetas y predicciones.
estático <T extiende TNumber > Operando <T>
l2Normalize (Ops tf, Operando <T> x, eje int[])
Se normaliza a lo largo del eje de dimensión utilizando una norma L2.
estático <T extiende TNumber > Operando <T>
logCosh (Ops tf, Operando <? extiende etiquetas TNumber >, predicciones del Operando <T>)
Calcula la pérdida de coseno hiperbólico entre etiquetas y predicciones.
estático <T extiende TNumber > Operando <T>
meanAbsoluteError (Ops tf, Operando <? extiende etiquetas TNumber >, predicciones del Operando <T>)
Calcula el error absoluto medio entre etiquetas y predicciones.
estático <T extiende TNumber > Operando <T>
meanAbsolutePercentageError (Ops tf, Operando <? extiende etiquetas TNumber >, predicciones del Operando <T>)
Calcula el error porcentual absoluto medio entre etiquetas y predicciones.
estático <T extiende TNumber > Operando <T>
meanSquaredError (Ops tf, Operando <? extiende etiquetas TNumber >, predicciones del Operando <T>)
Calcula el error cuadrático medio entre etiquetas y predicciones.
estático <T extiende TNumber > Operando <T>
meanSquaredLogarithmicError (Ops tf, Operando <? extiende etiquetas TNumber >, predicciones del Operando <T>)
Calcula el error logarítmico cuadrático medio entre etiquetas y predicciones.
estático <T extiende TNumber > Operando <T>
poisson (Ops tf, Operando <? extiende etiquetas TNumber >, predicciones del Operando <T>)
Calcula la pérdida de Poisson entre etiquetas y predicciones.
estático <T extiende TNumber > Operando <T>
sparseCategoricalCrossentropy (Ops tf, Operando <? extiende etiquetas TNumber >, predicciones de Operando <T>, booleano fromLogits, eje int)
Calcula la escasa pérdida de entropía cruzada categórica entre etiquetas y predicciones.
estático <T extiende TNumber > Operando <T>
squaredHinge (Ops tf, Operando <? extiende etiquetas TNumber >, predicciones del Operando <T>)
Calcula la pérdida de bisagra al cuadrado entre etiquetas y predicciones.

Métodos heredados

Constantes

público estático final int CHANNELS_FIRST

Valor constante: 1

público estático final int CHANNELS_LAST

Valor constante: -1

flotador final estático público EPSILON

Factor de fuzz predeterminado.

Valor constante: 1.0E-7

Constructores Públicos

Pérdidas públicas ()

Métodos públicos

Operando estático público <T> binarioCrossentropy (Ops tf, Operando <? extiende etiquetas TNumber >, predicciones del Operando <T>, booleano fromLogits, suavizado de etiquetas flotantes)

Calcula la pérdida de entropía cruzada binaria entre etiquetas y predicciones.

Parámetros
tf las operaciones de TensorFlow
etiquetas verdaderos objetivos
predicciones las predicciones
desdeLogits Si se deben interpretar las predicciones como un tensor de valores logit
etiquetaSuavizado Un número en el rango [0, 1]. Cuando es 0, no se produce ningún suavizado. Cuando > 0, calcule la pérdida entre las etiquetas predichas y una versión suavizada de las etiquetas verdaderas, donde el suavizado reduce las etiquetas hacia 0,5. Los valores más grandes de labelSmoothing corresponden a un suavizado más intenso.
Devoluciones
  • la pérdida de entropía cruzada binaria.

Operando estático público <T> categoricalCrossentropy (Ops tf, Operando <? extiende etiquetas TNumber >, predicciones de Operando <T>, booleano fromLogits, suavizado de etiquetas flotantes, eje int)

Calcula la pérdida categórica de entropía cruzada entre etiquetas y predicciones.

Parámetros
tf las operaciones de TensorFlow
etiquetas verdaderos objetivos
predicciones las predicciones
desdeLogits Si se deben interpretar las predicciones como un tensor de valores logit
etiquetaSuavizado Flotar en [0, 1] . Cuando > 0 , los valores de las etiquetas se suavizan, lo que significa que la confianza en los valores de las etiquetas se relaja. por ejemplo, labelSmoothing=0.2 significa que usaremos un valor de 0.1 para la etiqueta 0 y 0.9 para la etiqueta 1
eje el
Devoluciones
  • la pérdida categórica de entropía cruzada.

Operando estático público <T> categoricalHinge (Ops tf, Operando <? extiende etiquetas TNumber >, predicciones del Operando <T>)

Calcula la pérdida de bisagra categórica entre etiquetas y predicciones.

Parámetros
tf las operaciones de TensorFlow
etiquetas objetivos verdaderos, se espera que los valores sean 0 o 1.
predicciones las predicciones
Devoluciones
  • la pérdida categórica de la bisagra

Operando estático público <T> cosenoSimilaridad (Ops tf, Operando <? extiende etiquetas TNumber >, predicciones del Operando <T>, eje int[])

Calcula la pérdida de similitud del coseno entre etiquetas y predicciones.

Tenga en cuenta que es un número entre -1 y 1 , que es diferente de la definición matemática de similitud de coseno donde 1 representa vectores similares y 0 representa vectores diferentes. En esta función, los números se invierten en un rango de -1 a 1 . Cuando es un número negativo entre -1 y 0 , 0 indica ortogonalidad y valores más cercanos a -1 indican mayor similitud. Los valores más cercanos a 1 indican mayor disimilitud. Esto lo hace utilizable como función de pérdida en un entorno en el que se intenta maximizar la proximidad entre las predicciones y los objetivos. Si las etiquetas o las predicciones son un vector cero, la similitud del coseno será 0 independientemente de la proximidad entre las predicciones y los objetivos.

loss = -sum(l2Norm(labels) * l2Norm(predictions))

Parámetros
tf las operaciones de TensorFlow
etiquetas verdaderos objetivos
predicciones las predicciones
eje Eje a lo largo del cual determinar la similitud.
Devoluciones
  • la pérdida de similitud del coseno

Bisagra pública estática del operando <T> (Ops tf, operando <? extiende etiquetas TNumber >, predicciones del operando <T>)

Calcula la pérdida de bisagra entre etiquetas y predicciones.

loss = reduceMean(maximum(1 - labels * predictions, 0))

Parámetros
tf las operaciones de TensorFlow
etiquetas objetivos verdaderos, se espera que los valores sean -1 o 1. Si se proporcionan etiquetas binarias (0 o 1), se convertirán a -1 o 1.
predicciones las predicciones
Devoluciones
  • la pérdida de bisagra

Operando estático público <T> huber (Ops tf, Operando <? extiende etiquetas TNumber >, predicciones de Operando <T>, delta flotante)

Calcula la pérdida de Huber entre etiquetas y predicciones.

Para cada valor x en error = etiquetas - predicciones:

     loss = 0.5 * x^2                  if |x| <= d
     loss = 0.5 * d^2 + d * (|x| - d)  if |x| > d
 

donde d es delta.

Parámetros
tf las operaciones de TensorFlow
etiquetas verdaderos objetivos
predicciones las predicciones
delta el punto donde la función de pérdida de Huber cambia de cuadrática a lineal.
Devoluciones
  • la perdida de huber

Operando estático público <T> kullbackLeiblerDivergence (Ops tf, Operando <? extiende etiquetas TNumber >, predicciones del Operando <T>)

Calcula la pérdida de divergencia de Kullback-Leibler entre etiquetas y predicciones.

Parámetros
tf las operaciones de TensorFlow
etiquetas verdaderos objetivos
predicciones las predicciones
Devoluciones
  • la pérdida por divergencia de Kullback-Leibler

Operando estático público <T> l2Normalize (Ops tf, Operando <T> x, eje int[])

Se normaliza a lo largo del eje de dimensión utilizando una norma L2.

Parámetros
tf Las operaciones de TensorFlow
X la entrada
eje Dimensión a lo largo de la cual normalizar.
Devoluciones
  • los valores normalizados basados ​​en la norma L2

Operando estático público <T> logCosh (Ops tf, Operando <? extiende etiquetas TNumber >, predicciones del Operando <T>)

Calcula la pérdida de coseno hiperbólico entre etiquetas y predicciones.

log(cosh(x)) es aproximadamente igual a (x ** 2) / 2 para x pequeño y a abs(x) - log(2) para x grande. Esto significa que 'logCosh' funciona mayoritariamente como el error cuadrático medio, pero no se verá tan afectado por alguna predicción tremendamente incorrecta ocasional.

Parámetros
tf las operaciones de TensorFlow
etiquetas verdaderos objetivos
predicciones las predicciones
Devoluciones
  • la pérdida de divergencia del coseno hiperbólico

Operando estático público <T> meanAbsoluteError (Ops tf, Operando <? extiende etiquetas TNumber >, predicciones del Operando <T>)

Calcula el error absoluto medio entre etiquetas y predicciones.

loss = reduceMean(abs(labels - predictions))

Parámetros
tf Las operaciones de TensorFlow
etiquetas las etiquetas
predicciones las predicciones
Devoluciones
  • el error absoluto medio

Operando estático público <T> meanAbsolutePercentageError (Ops tf, Operando <? extiende etiquetas TNumber >, predicciones del Operando <T>)

Calcula el error porcentual absoluto medio entre etiquetas y predicciones.

loss = 100 * reduceMean(abs((labels - predictions) / labels))

Parámetros
tf Las operaciones de TensorFlow
etiquetas las etiquetas
predicciones las predicciones
Devoluciones
  • el error porcentual absoluto medio

Operando estático público <T> meanSquaredError (Ops tf, Operando <? extiende etiquetas TNumber >, predicciones del Operando <T>)

Calcula el error cuadrático medio entre etiquetas y predicciones.

loss = reduceMean(square(labels - predictions))

Parámetros
tf Las operaciones de TensorFlow
etiquetas las etiquetas
predicciones las predicciones
Devoluciones
  • el error cuadrático medio

Operando estático público <T> meanSquaredLogarithmicError (Ops tf, Operando <? extiende etiquetas TNumber >, predicciones del Operando <T>)

Calcula el error logarítmico cuadrático medio entre etiquetas y predicciones.

loss = reduceMean(square(log(labels + 1) - log(predictions + 1)))

Parámetros
tf Las operaciones de TensorFlow
etiquetas las etiquetas
predicciones las predicciones
Devoluciones
  • el error porcentual logarítmico cuadrático medio

Operando estático público <T> poisson (Ops tf, Operando <? extiende etiquetas TNumber >, predicciones del Operando <T>)

Calcula la pérdida de Poisson entre etiquetas y predicciones.

La pérdida de Poisson es la media de los elementos de las predictions - labels * log(predictions) .

Parámetros
tf las operaciones de TensorFlow
etiquetas verdaderos objetivos
predicciones las predicciones
Devoluciones
  • la pérdida de Poisson

Operando estático público <T> sparseCategoricalCrossentropy (Ops tf, Operando <? extiende TNumber > etiquetas, Operando <T> predicciones, booleano fromLogits, eje int)

Calcula la escasa pérdida de entropía cruzada categórica entre etiquetas y predicciones.

Parámetros
tf las operaciones de TensorFlow
etiquetas verdaderos objetivos
predicciones las predicciones
desdeLogits Si se espera que las predicciones sean logits. De forma predeterminada, se supone que las predicciones codifican una distribución de probabilidad.
eje La dimensión a lo largo de la cual se calcula la entropía.
Devoluciones
  • la escasa pérdida categórica de entropía cruzada

Operando estático público <T> squaredHinge (Ops tf, Operando <? extiende etiquetas TNumber >, predicciones del Operando <T>)

Calcula la pérdida de bisagra al cuadrado entre etiquetas y predicciones.

loss = reduceMean(square(maximum(1 - labels * predictions, 0)))

Parámetros
tf las operaciones de TensorFlow
etiquetas objetivos verdaderos, se espera que los valores sean -1 o 1. Si se proporcionan etiquetas binarias (0 o 1) *, se convertirán a -1 o 1.
predicciones las predicciones
Devoluciones
  • la pérdida de bisagra al cuadrado