org.tensorflow.framework.optimizers
클래스
에이다델타 | Adadelta 알고리즘을 구현하는 최적화 프로그램입니다. |
아다그라드 | Adagrad 알고리즘을 구현하는 최적화 프로그램입니다. |
AdaGradDA | Adagrad Dual-Averaging 알고리즘을 구현하는 최적화 프로그램입니다. |
아담 | Adam 알고리즘을 구현하는 최적화 프로그램입니다. |
아다맥스 | Adamax 알고리즘을 구현하는 최적화 프로그램입니다. |
Ftrl | FTRL 알고리즘을 구현하는 최적화 프로그램입니다. |
경사하강법 | 기본 확률적 경사하강법 최적화 프로그램. |
기세 | 확률적 경사하강법과 모멘텀(네스테로프 또는 전통). |
나담 | NAdam 알고리즘을 구현한 Nadam Optimizer입니다. |
옵티마이저 | 그래디언트 최적화 프로그램의 기본 클래스입니다. |
Optimizer.GradAndVar <T는 TType을 확장합니다.> | 한 쌍의 그래디언트와 변수를 보유하는 클래스입니다. |
최적화 프로그램.옵션 | Optimizer 의 선택적 속성 |
RMSProp | RMSProp 알고리즘을 구현하는 최적화 프로그램입니다. |
열거형
옵티마이저 | 기본 매개변수를 사용하여 새 최적화 프로그램을 만드는 데 사용되는 열거자입니다. |
달리 명시되지 않는 한 이 페이지의 콘텐츠에는 Creative Commons Attribution 4.0 라이선스에 따라 라이선스가 부여되며, 코드 샘플에는 Apache 2.0 라이선스에 따라 라이선스가 부여됩니다. 자세한 내용은 Google Developers 사이트 정책을 참조하세요. 자바는 Oracle 및/또는 Oracle 계열사의 등록 상표입니다.
최종 업데이트: 2024-10-31(UTC)
[null,null,["최종 업데이트: 2024-10-31(UTC)"],[],[]]