パブリック クラスKLDiverence
ラベルと予測の間のカルバック・ライブラー発散損失を計算します。
loss = labels * log(labels / predictions)
スタンドアロンでの使用:
Operand<TFloat32> labels = tf.constant(new float[][] { {0.f, 1.f}, {0.f, 0.f} }); Operand<TFloat32> predictions = tf.constant(new float[][] { {0.6f, 0.4f}, {0.4f, 0.6f} }); KLDivergence kld = new KLDivergence(tf); Operand<TFloat32> result = kld.call(labels, predictions); // produces 0.458
サンプル重量を使用して呼び出します:
Operand<TFloat32> sampleWeight = tf.constant(new float[] {0.8f, 0.2f}); Operand<TFloat32> result = kld.call(labels, predictions, sampleWeight); // produces 0.366f
SUM
リダクション タイプを使用する場合:
KLDivergence kld = new KLDivergence(tf, Reduction.SUM); Operand<TFloat32> result = kld.call(labels, predictions); // produces 0.916f
NONE
削減タイプを使用する場合:
KLDivergence kld = new KLDivergence(tf, Reduction.NONE); Operand<TFloat32> result = kld.call(labels, predictions); // produces [0.916f, -3.08e-06f]
関連項目
継承されたフィールド
パブリックコンストラクター
KLD ダイバージェンス(運用 tf) getSimpleName() を損失名として使用し、損失削減としてREDUCTION_DEFAULT を使用して Kullback Leibler Divergence Loss を作成します。 | |
パブリックメソッド
<T extends TNumber >オペランド<T> |
継承されたメソッド
パブリックコンストラクター
パブリックKLDiverence (Ops tf)
getSimpleName()
を損失名として使用し、損失削減としてREDUCTION_DEFAULT
を使用して Kullback Leibler Divergence Loss を作成します。
パラメータ
TF | TensorFlow オペレーション |
---|
パブリックKLDiverence (Ops tf、 Reduction削減)
getSimpleName()
を損失名として使用して、Kullback Leibler Divergence Loss Loss を作成します。
パラメータ
TF | TensorFlow オペレーション |
---|---|
削減 | 損失に適用する減額のタイプ。 |
public KLDiverence (Ops tf、文字列名、 Reduction削減)
カルバック・ライブラーの発散損失を発生させます
パラメータ
TF | TensorFlow オペレーション |
---|---|
名前 | 喪失の名前 |
削減 | 損失に適用する減額のタイプ。 |
パブリックメソッド
publicオペランド<T>呼び出し(オペランド<? extends TNumber > ラベル、オペランド<T> 予測、オペランド<T> サンプルウェイト)
損失を計算するオペランドを生成します。
パラメータ
ラベル | 真理値またはラベル |
---|---|
予測 | 予測 |
サンプルの重み | オプションのsampleWeightsは、損失の係数として機能します。スカラーが指定されている場合、損失は指定された値によって単純にスケーリングされます。 SampleWeights がサイズ [batch_size] のテンソルの場合、バッチの各サンプルの合計損失は、SampleWeights ベクトルの対応する要素によって再スケーリングされます。 SampleWeights の形状が [batch_size, d0, .. dN-1] の場合 (またはこの形状にブロードキャストできる場合)、予測の各損失要素は、SampleWeights の対応する値によってスケーリングされます。 (dN-1 に関する注意: すべての損失関数は 1 次元ずつ減少します。通常は axis=-1 です。) |
返品
- 損失