کلاس ها
AdaDelta | بهینه ساز که الگوریتم Adadelta را پیاده سازی می کند. |
آداگراد | بهینه ساز که الگوریتم Adagrad را پیاده سازی می کند. |
AdaGradDA | بهینه ساز که الگوریتم میانگین دوگانه Adagrad را پیاده سازی می کند. |
آدم | بهینه ساز که الگوریتم Adam را پیاده سازی می کند. |
آداماکس | بهینه ساز که الگوریتم Adamax را پیاده سازی می کند. |
Ftrl | بهینه ساز که الگوریتم FTRL را پیاده سازی می کند. |
GradientDescent | بهینه ساز پایه شیب نزولی Stochastic. |
تکانه | نزول شیب تصادفی به اضافه تکانه، نستروف یا سنتی. |
نادام | بهینه ساز Nadam که الگوریتم NAdam را پیاده سازی می کند. |
بهینه ساز | کلاس پایه برای بهینه سازهای گرادیان. |
Optimizer.GradAndVar <T TType > را گسترش می دهد | کلاسی که دارای یک گرادیان و متغیر جفتی است. |
Optimizer.Options | ویژگی های اختیاری برای Optimizer |
RMSProp | بهینه ساز که الگوریتم RMSProp را پیاده سازی می کند. |
Enums
بهینه سازها | Enumerator برای ایجاد یک بهینه ساز جدید با پارامترهای پیش فرض استفاده می شود. |