ReLU

общедоступный класс ReLU

Активация выпрямленной линейной единицы (ReLU).

Со значениями по умолчанию это возвращает стандартную активацию ReLU: max(x, 0) , поэлементный максимум 0 и входной тензор.

Изменение параметров по умолчанию позволяет использовать ненулевые пороговые значения, изменять максимальное значение активации и использовать ненулевое кратное входному значению для значений ниже порогового значения.

Например:

     Operand<TFloat32> input = tf.constant(
              new float[] {-10f, -5f, 0.0f, 5f, 10f});

     // With default parameters
     ReLU<TFloat32> relu = new ReLU<>(tf);
     Operand<TFloat32> result = relu.call(input);
     // result is [0.f,  0.f,  0.f,  5.f, 10.f]

     // With alpha = 0.5
     relu = new ReLU<>(tf, 0.5f, ReLU.MAX_VALUE_DEFAULT, ReLU.THRESHOLD_DEFAULT);
     result = relu.call(input);
     // result is [-5.f , -2.5f,  0.f ,  5.f , 10.f]

     // With maxValue = 5
     relu = new ReLU<>(tf, ReLU.ALPHA_DEFAULT, 5f, ReLU.THRESHOLD_DEFAULT);
     result = relu.call(input);
     // result is [0.f, 0.f, 0.f, 5.f, 5.f]

     // With threshold = 5
     relu = new ReLU<>(tf, ReLU.ALPHA_DEFAULT, ReLU.MAX_VALUE_DEFAULT, 5f);
     result = relu.call(input);
     // result is [-0.f, -0.f,  0.f,  0.f, 10.f]
 

Константы

плавать АЛЬФА_DEFAULT
плавать MAX_VALUE_DEFAULT
плавать THRESHOLD_DEFAULT

Публичные конструкторы

ReLU (Операции TF)
Создает новый ReLU с альфа= ALPHA_DEFAULT , maxValue= MAX_VALUE_DEFAULT , порогом = THRESHOLD_DEFAULT ,
ReLU (Ops tf, float Alpha, float maxValue, плавающий порог)
Создает новый ReLU

Публичные методы

Операнд <Т>
вызов (ввод операнда <T>)
Получает операцию вычисления для активации.

Унаследованные методы

Константы

общедоступный статический финальный float ALPHA_DEFAULT

Постоянное значение: 0,0

общедоступный статический финальный float MAX_VALUE_DEFAULT

Постоянное значение: NaN

общедоступный статический финальный плавающий элемент THRESHOLD_DEFAULT

Постоянное значение: 0,0

Публичные конструкторы

публичный ReLU (Ops TF)

Создает новый ReLU с альфа= ALPHA_DEFAULT , maxValue= MAX_VALUE_DEFAULT , порогом = THRESHOLD_DEFAULT ,

Параметры
ТС Операции TensorFlow

общедоступный ReLU (Ops tf, float Alpha, float maxValue, плавающий порог)

Создает новый ReLU

Параметры
ТС Операции TensorFlow
альфа управляет наклоном для значений ниже порогового значения.
максимальное значение устанавливает порог насыщения (наибольшее значение, которое вернет функция).
порог пороговое значение функции активации, ниже которого значения будут демпфироваться или устанавливаться на ноль.

Публичные методы

общедоступный вызов операнда <T> (ввод операнда <T>)

Получает операцию вычисления для активации.

Параметры
вход входной тензор
Возврат
  • Операнд для активации