سافت مکس یک بردار واقعی را به بردار احتمالات طبقه ای تبدیل می کند.
عناصر بردار خروجی در محدوده (0، 1) و مجموع آنها 1 است.
هر بردار به طور مستقل مدیریت می شود. آرگومان axis
تعیین می کند که تابع در امتداد کدام محور ورودی اعمال شود.
Softmax اغلب به عنوان فعال سازی برای آخرین لایه شبکه طبقه بندی استفاده می شود زیرا نتیجه می تواند به عنوان یک توزیع احتمال تفسیر شود.
Softmax هر بردار x به صورت: exp(x) / tf.sum(exp(x))
محاسبه می شود.
مقادیر ورودی در log-shans احتمال حاصل است.
سازندگان عمومی
Softmax (Ops tf) یک فعال سازی softmax ایجاد می کند که در آن محور پیش فرض ERROR(/#AXIS_DEFAULT) است که آخرین بعد را نشان می دهد. | |
Softmax (Ops tf، int axis) یک فعال سازی Softmax ایجاد می کند |
روش های عمومی
عملوند <T> |
روش های ارثی
سازندگان عمومی
سافت مکس عمومی (Ops tf)
یک فعال سازی softmax ایجاد می کند که در آن محور پیش فرض ERROR(/#AXIS_DEFAULT)
است که آخرین بعد را نشان می دهد.
مولفه های
tf | TensorFlow Ops |
---|
Softmax عمومی (Ops tf، int axis)
یک فعال سازی Softmax ایجاد می کند
مولفه های
tf | TensorFlow Ops |
---|---|
محور | ابعاد سافت مکس روی انجام می شود. |