org.tensorflow.framework.activations

Классы

Активация <T расширяет TNumber > Абстрактный базовый класс для активации

Примечание. Атрибут ERROR(/#tf) должен быть установлен до вызова метода вызова.

ELU <T расширяет TFloating > Экспоненциальная линейная единица.
Экспонента <T расширяет TFloating > Экспоненциальная функция активации.
HardSigmoid <T расширяет TFloating > Жесткая активация сигмовидной кишки.
Линейный <U расширяет TNumber > Функция линейной активации (сквозная).
ReLU <T расширяет TNumber > Активация выпрямленной линейной единицы (ReLU).
SELU <T расширяет TFloating > Масштабированная экспоненциальная линейная единица (SELU).
Сигмовидная <T расширяет TFloating > Активация сигмовидной кишки.
Softmax <T расширяет TFloating > Softmax преобразует действительный вектор в вектор категориальных вероятностей.
Softplus <T расширяет TFloating > Функция активации Softplus, softplus(x) = log(exp(x) + 1) .
Softsign <T расширяет TFloating > Функция активации Softsign, softsign(x) = x / (abs(x) + 1) .
Swish <T расширяет TFloating > Функция активации Swish.
Тан <T расширяет TFloating > Функция активации гиперболического тангенса.