Функция активации Swish. swish(x) = x * sigmoid(x)
.
Функция активации Swish, которая возвращает x*sigmoid(x)
. Это гладкая, немонотонная функция, которая постоянно соответствует или превосходит ReLU
в глубоких сетях. Она не ограничена сверху и ограничена снизу.
Пример использования:
Operand<TFloat32> input = tf.constant(new float[] {-20, -1.0, 0.0, 1.0, 20}); Swish<TFloat32> swish = new Swish<>(tf); Operand<TFloat32> result = swish.call(input); // result = [-4.1223075e-08f, -2.6894143e-01f, 0.0000000e+00f, // 7.3105860e-01f, 2.0000000e+01f ]
См. также
Публичные конструкторы
Свиш (Ops TF) Создает активацию Swish, swish(x) = x * sigmoid(x) . |
Публичные методы
Операнд <Т> |
Унаследованные методы
Публичные конструкторы
общественный Swish (Ops TF)
Создает активацию Swish, swish(x) = x * sigmoid(x)
.
Функция активации Swish, которая возвращает x*sigmoid(x)
. Это гладкая, немонотонная функция, которая постоянно соответствует или превосходит ReLU в глубоких сетях. Она не ограничена сверху и ограничена снизу.
Параметры
ТС | Операции TensorFlow |
---|