Selu

kelas akhir publik Selu

Menghitung skala linier eksponensial: `skala * alfa * (exp(fitur) - 1)`

jika < 0, `skala * fitur` sebaliknya.

Untuk digunakan bersama dengan `initializer = tf.variance_scaling_initializer(factor=1.0, mode='FAN_IN')`. Untuk dropout yang benar, gunakan `tf.contrib.nn.alpha_dropout`.

Lihat [Jaringan Neural Normalisasi Mandiri](https://arxiv.org/abs/1706.02515)

Konstanta

Rangkaian OP_NAME Nama operasi ini dikenal dengan mesin inti TensorFlow

Metode Publik

Keluaran <T>
Keluaran <T>
sebagai Keluaran ()
Mengembalikan pegangan simbolis tensor.
statis <T meluas TNomber > Selu <T>
buat ( Lingkup lingkup, fitur Operan <T>)
Metode pabrik untuk membuat kelas yang membungkus operasi Selu baru.

Metode Warisan

Konstanta

String akhir statis publik OP_NAME

Nama operasi ini dikenal dengan mesin inti TensorFlow

Nilai Konstan: "Selu"

Metode Publik

aktivasi Output <T> publik ()

Keluaran publik <T> sebagai Keluaran ()

Mengembalikan pegangan simbolis tensor.

Masukan ke operasi TensorFlow adalah keluaran dari operasi TensorFlow lainnya. Metode ini digunakan untuk mendapatkan pegangan simbolis yang mewakili perhitungan input.

public static Selu <T> buat ( Lingkup lingkup, fitur Operan <T>)

Metode pabrik untuk membuat kelas yang membungkus operasi Selu baru.

Parameter
cakupan ruang lingkup saat ini
Kembali
  • contoh baru dari Selu