パブリック クラスKLDiverence
ラベルと予測の間のカルバック・ライブラー発散損失を計算します。
loss = labels * log(labels / predictions)
スタンドアロンでの使用:
Operand<TFloat32> labels =
tf.constant(new float[][] { {0.f, 1.f}, {0.f, 0.f} });
Operand<TFloat32> predictions =
tf.constant(new float[][] { {0.6f, 0.4f}, {0.4f, 0.6f} });
KLDivergence kld = new KLDivergence(tf);
Operand<TFloat32> result = kld.call(labels, predictions);
// produces 0.458
サンプル重量を使用して呼び出します:
Operand<TFloat32> sampleWeight = tf.constant(new float[] {0.8f, 0.2f});
Operand<TFloat32> result = kld.call(labels, predictions, sampleWeight);
// produces 0.366f
SUMリダクション タイプを使用する場合:
KLDivergence kld = new KLDivergence(tf, Reduction.SUM);
Operand<TFloat32> result = kld.call(labels, predictions);
// produces 0.916f
NONE削減タイプを使用する場合:
KLDivergence kld = new KLDivergence(tf, Reduction.NONE);
Operand<TFloat32> result = kld.call(labels, predictions);
// produces [0.916f, -3.08e-06f]
関連項目
継承されたフィールド
パブリックコンストラクター
KLD ダイバージェンス(運用 tf) getSimpleName()を損失名として使用し、損失削減としてREDUCTION_DEFAULTを使用して、Kullback Leibler Divergence Loss を作成します。 | |
パブリックメソッド
| <T extends TNumber >オペランド<T> |
継承されたメソッド
パブリックコンストラクター
パブリックKLDiverence (Ops tf)
getSimpleName()を損失名として使用し、損失削減としてREDUCTION_DEFAULTを使用して Kullback Leibler Divergence Loss を作成します。
パラメータ
| TF | TensorFlow オペレーション |
|---|
パブリックKLDiverence (Ops tf、 Reduction削減)
getSimpleName()を損失名として使用して、Kullback Leibler Divergence Loss Loss を作成します。
パラメータ
| TF | TensorFlow オペレーション |
|---|---|
| 削減 | 損失に適用する減額のタイプ。 |
public KLDiverence (Ops tf、文字列名、 Reduction削減)
カルバック・ライブラーの発散損失を発生させます
パラメータ
| TF | TensorFlow オペレーション |
|---|---|
| 名前 | 喪失の名前 |
| 削減 | 損失に適用する減額のタイプ。 |
パブリックメソッド
publicオペランド<T>呼び出し(オペランド<? extends TNumber > ラベル、オペランド<T> 予測、オペランド<T> サンプルウェイト)
損失を計算するオペランドを生成します。
パラメータ
| ラベル | 真理値またはラベル |
|---|---|
| 予測 | 予測 |
| サンプルの重み | オプションのsampleWeightsは、損失の係数として機能します。スカラーが指定されている場合、損失は指定された値によって単純にスケーリングされます。 SampleWeights がサイズ [batch_size] のテンソルの場合、バッチの各サンプルの合計損失は、SampleWeights ベクトルの対応する要素によって再スケーリングされます。 SampleWeights の形状が [batch_size, d0, .. dN-1] の場合 (またはこの形状にブロードキャストできる場合)、予測の各損失要素は、SampleWeights の対応する値によってスケーリングされます。 (dN-1 に関する注意: すべての損失関数は 1 次元ずつ減少します。通常は axis=-1 です。) |
返品
- 損失