パブリック クラスMeanSquaredLogarithmicError
ラベルと予測の間の平均二乗対数誤差を計算します。
loss = square(log(labels + 1.) - log(predictions + 1.))
スタンドアロン使用:
Operand<TFloat32> labels = tf.constant(new float[][] { {0.f, 1.f}, {0.f, 0.f} }); Operand<TFloat32> predictions = tf.constant(new float[][] { {1.f, 1.f}, {1.f, 0.f} }); MeanSquaredLogarithmicError msle = new MeanSquaredLogarithmicError(tf); Operand<TFloat32> result = msle.call(labels, predictions); // produces 0.240f
サンプルの重みを指定して呼び出します:
Operand<TFloat32> sampleWeight = tf.constant(new float[] {0.7f, 0.3f}); Operand<TFloat32> result = msle.call(labels, predictions, sampleWeight); // produces 0.120f
SUM
リダクションタイプの使用:
MeanSquaredLogarithmicError msle = new MeanSquaredLogarithmicError(tf, Reduction.SUM); Operand<TFloat32> result = msle.call(labels, predictions); // produces 0.480f
NONE
削減タイプを使用する:
MeanSquaredLogarithmicError msle = new MeanSquaredLogarithmicError(tf, Reduction.NONE); Operand<TFloat32> result = msle.call(labels, predictions); // produces [0.240f, 0.240f]
継承されたフィールド
パブリックコンストラクター
MeanSquaredLogarithmicError (Ops tf) getSimpleName() を損失名として使用し、 REDUCTION_DEFAULT の損失削減を使用して MeanSquaredError 損失を作成します。 | |
MeanSquaredLogarithmicError (Ops tf、 Reductionリダクション) getSimpleName() を損失名として使用して MeanSquaredError 損失を作成します | |
パブリックメソッド
<T extends TNumber >オペランド<T> |
継承されたメソッド
パブリックコンストラクター
public MeanSquaredLogarithmicError (Ops tf)
getSimpleName()
を損失名として使用し、 REDUCTION_DEFAULT
の損失削減を使用して MeanSquaredError 損失を作成します。
パラメーター
TF | TensorFlow オペレーション |
---|
public MeanSquaredLogarithmicError (Ops tf、 Reduction削減)
getSimpleName()
を損失名として使用して MeanSquaredError 損失を作成します
パラメーター
TF | TensorFlow オペレーション |
---|---|
削減 | 損失に適用する減額のタイプ。 |
public MeanSquaredLogarithmicError (Ops tf、文字列名、 Reduction削減)
MeanSquaredError を作成します
パラメーター
TF | TensorFlow オペレーション |
---|---|
名前 | 喪失の名前 |
削減 | 損失に適用する減額のタイプ。 |
パブリックメソッド
publicオペランド<T>呼び出し(オペランド<? extends TNumber > ラベル、オペランド<T> 予測、オペランド<T> サンプルウェイト)
損失を計算するオペランドを生成します。
パラメーター
ラベル | 真理値またはラベル |
---|---|
予測 | 予測 |
サンプルの重み | オプションのsampleWeightsは、損失の係数として機能します。スカラーが指定されている場合、損失は指定された値によって単純にスケーリングされます。 SampleWeights がサイズ [batch_size] のテンソルの場合、バッチの各サンプルの合計損失は、SampleWeights ベクトルの対応する要素によって再スケーリングされます。 SampleWeights の形状が [batch_size, d0, .. dN-1] の場合 (またはこの形状にブロードキャストできる場合)、予測の各損失要素は、SampleWeights の対応する値によってスケーリングされます。 (dN-1 に関する注意: すべての損失関数は 1 次元ずつ減少します。通常は axis=-1 です。) |
戻り値
- 損失