کلاس ها
AccumulatorApplyGradient | یک گرادیان را به یک انباشتگر معین اعمال می کند. |
AccumulatorNumAccumulated | تعداد گرادیان های جمع شده در انباشته های داده شده را برمی گرداند. |
AccumulatorSetGlobalStep | Acumulator را با یک مقدار جدید برای global_step به روز می کند. |
AccumulatorTakeGradient <T TType را گسترش می دهد > | گرادیان متوسط را در ConditionalAccumulator داده شده استخراج می کند. |
ApplyAdadelta <T گسترش TType > | "*var" را طبق طرح adadelta به روز کنید. |
ApplyAdadelta.Options | ویژگی های اختیاری برای ApplyAdadelta |
ApplyAdagrad <T گسترش TType > | "*var" را طبق طرح adagrad به روز کنید. |
ApplyAdagrad.Options | ویژگی های اختیاری برای ApplyAdagrad |
ApplyAdagradDa <T TType را گسترش می دهد > | "*var" را طبق طرح آداگراد پروگزیمال به روز کنید. |
ApplyAdagradDa.Options | ویژگی های اختیاری برای ApplyAdagradDa |
ApplyAdagradV2 <T TType را گسترش می دهد > | "*var" را طبق طرح adagrad به روز کنید. |
ApplyAdagradV2.Options | ویژگی های اختیاری برای ApplyAdagradV2 |
ApplyAdam <T گسترش TType > | "*var" را طبق الگوریتم Adam به روز کنید. |
ApplyAdam.Options | ویژگی های اختیاری برای ApplyAdam |
ApplyAdaMax <T TType را گسترش می دهد > | "*var" را طبق الگوریتم AdaMax به روز کنید. |
ApplyAdaMax.Options | ویژگی های اختیاری برای ApplyAdaMax |
ApplyAddSign <T گسترش TType > | "*var" را مطابق به روز رسانی AddSign به روز کنید. |
ApplyAddSign.Options | ویژگی های اختیاری برای ApplyAddSign |
ApplyCenteredRmsProp <T TType > را گسترش می دهد | "*var" را مطابق با الگوریتم RMSProp متمرکز به روز کنید. |
ApplyCenteredRmsProp.Options | ویژگی های اختیاری برای ApplyCenteredRmsProp |
ApplyFtrl <T TType را گسترش می دهد > | "*var" را طبق طرح Ftrl-proximal به روز کنید. |
ApplyFtrl.Options | ویژگی های اختیاری برای ApplyFtrl |
ApplyGradientDescent <T TType را گسترش می دهد > | «*var» را با کم کردن «alpha» * «delta» از آن بهروزرسانی کنید. |
ApplyGradientDescent.Options | ویژگی های اختیاری برای ApplyGradientDescent |
ApplyMomentum <T TType را گسترش می دهد > | "*var" را مطابق طرح حرکت به روز کنید. |
ApplyMomentum.Options | ویژگی های اختیاری برای ApplyMomentum |
ApplyPowerSign <T TType را گسترش می دهد > | "*var" را مطابق به روز رسانی AddSign به روز کنید. |
ApplyPowerSign.Options | ویژگی های اختیاری برای ApplyPowerSign |
ApplyProximalAdagrad <T گسترش TType > | «*var» و «*accum» را مطابق با FOBOS با نرخ یادگیری Adagrad بهروزرسانی کنید. |
ApplyProximalAdagrad.Options | ویژگی های اختیاری برای ApplyProximalAdagrad |
ApplyProximalGradientDescent <T TType را گسترش می دهد | "*var" را به عنوان الگوریتم FOBOS با نرخ یادگیری ثابت به روز کنید. |
ApplyProximalGradientDescent.Options | ویژگی های اختیاری برای ApplyProximalGradientDescent |
ApplyRmsProp <T TType > را گسترش می دهد | "*var" را طبق الگوریتم RMSProp به روز کنید. |
ApplyRmsProp.Options | ویژگی های اختیاری برای ApplyRmsProp |
BatchMatMul <T TType > را گسترش می دهد | برش های دو تانسور را به صورت دسته ای ضرب می کند. |
BatchMatMul.Options | ویژگی های اختیاری برای BatchMatMul |
ComputeBatchSize | اندازه دسته ایستا یک مجموعه داده بدون دسته های جزئی را محاسبه می کند. |
Conditional Accumulator | یک انباشته شرطی برای تجمیع گرادیان ها. |
ConditionalAccumulator.Options | ویژگی های اختیاری برای ConditionalAccumulator |
GenerateVocabRemapping | با دادن مسیری به فایلهای واژگان جدید و قدیمی، یک Remapping Tensor از را برمیگرداند طول «num_new_vocab»، جایی که «remapping[i]» حاوی شماره ردیف در واژگان قدیمی است که مربوط به ردیف «i» در واژگان جدید است (شروع از خط «new_vocab_offset» و تا «num_new_vocab» موجودیتها)، یا «- 1` اگر ورودی «i» در واژگان جدید در واژگان قدیمی نباشد. |
GenerateVocabRemapping.Options | ویژگی های اختیاری برای GenerateVocabRemapping |
MergeV2Checkpoints | فرمت خاص V2: فایل های ابرداده ایست های بازرسی خرد شده را ادغام می کند. |
MergeV2Checkpoints.Options | ویژگی های اختیاری برای MergeV2Checkpoints |
NegTrain | آموزش از طریق نمونه گیری منفی |
PreventGradient <T TType را گسترش می دهد | یک عملیات هویتی که در صورت درخواست گرادیان، خطا را ایجاد می کند. |
PreventGradient.Options | ویژگی های اختیاری برای PreventGradient |
ResourceAccumulatorApplyGradient | یک گرادیان را به یک انباشتگر معین اعمال می کند. |
ResourceAccumulatorNumAccumulated | تعداد گرادیان های جمع شده در انباشته های داده شده را برمی گرداند. |
ResourceAccumulatorSetGlobalStep | Acumulator را با یک مقدار جدید برای global_step به روز می کند. |
ResourceAccumulatorTakeGradient <T گسترش TType > | گرادیان متوسط را در ConditionalAccumulator داده شده استخراج می کند. |
ResourceApplyAdadelta | "*var" را طبق طرح adadelta به روز کنید. |
ResourceApplyAdadelta.Options | ویژگی های اختیاری برای ResourceApplyAdadelta |
ResourceApplyAdagrad | "*var" را طبق طرح adagrad به روز کنید. |
ResourceApplyAdagrad.Options | ویژگی های اختیاری برای ResourceApplyAdagrad |
ResourceApplyAdagradDa | "*var" را طبق طرح آداگراد پروگزیمال به روز کنید. |
ResourceApplyAdagradDa.Options | ویژگی های اختیاری برای ResourceApplyAdagradDa |
ResourceApplyAdam | "*var" را طبق الگوریتم Adam به روز کنید. |
ResourceApplyAdam.Options | ویژگی های اختیاری برای ResourceApplyAdam |
ResourceApplyAdaMax | "*var" را طبق الگوریتم AdaMax به روز کنید. |
ResourceApplyAdaMax.Options | ویژگی های اختیاری برای ResourceApplyAdaMax |
ResourceApplyAdamWithAmsgrad | "*var" را طبق الگوریتم Adam به روز کنید. |
ResourceApplyAdamWithAmsgrad.Options | ویژگی های اختیاری برای ResourceApplyAdamWithAmsgrad |
ResourceApplyAddSign | "*var" را مطابق به روز رسانی AddSign به روز کنید. |
ResourceApplyAddSign.Options | ویژگی های اختیاری برای ResourceApplyAddSign |
ResourceApplyCenteredRmsProp | "*var" را مطابق با الگوریتم RMSProp متمرکز به روز کنید. |
ResourceApplyCenteredRmsProp.Options | ویژگی های اختیاری برای ResourceApplyCenteredRmsProp |
ResourceApplyFtrl | "*var" را طبق طرح Ftrl-proximal به روز کنید. |
ResourceApplyFtrl.Options | ویژگی های اختیاری برای ResourceApplyFtrl |
ResourceApplyGradientDescent | «*var» را با کم کردن «alpha» * «delta» از آن بهروزرسانی کنید. |
ResourceApplyGradientDescent.Options | ویژگی های اختیاری برای ResourceApplyGradientDescent |
ResourceApplyKerasMomentum | "*var" را مطابق طرح حرکت به روز کنید. |
ResourceApplyKerasMomentum.Options | ویژگی های اختیاری برای ResourceApplyKerasMomentum |
ResourceApplyMomentum | "*var" را مطابق طرح حرکت به روز کنید. |
ResourceApplyMomentum.Options | ویژگی های اختیاری برای ResourceApplyMomentum |
ResourceApplyPowerSign | "*var" را مطابق به روز رسانی AddSign به روز کنید. |
ResourceApplyPowerSign.Options | ویژگی های اختیاری برای ResourceApplyPowerSign |
ResourceApplyProximalAdagrad | «*var» و «*accum» را مطابق با FOBOS با نرخ یادگیری Adagrad بهروزرسانی کنید. |
ResourceApplyProximalAdagrad.Options | ویژگی های اختیاری برای ResourceApplyProximalAdagrad |
ResourceApplyProximalGradientDescent | "*var" را به عنوان الگوریتم FOBOS با نرخ یادگیری ثابت به روز کنید. |
ResourceApplyProximalGradientDescent.Options | ویژگی های اختیاری برای ResourceApplyProximalGradientDescent |
ResourceApplyRmsProp | "*var" را طبق الگوریتم RMSProp به روز کنید. |
ResourceApplyRmsProp.Options | ویژگی های اختیاری برای ResourceApplyRmsProp |
منبع Conditional Accumulator | یک انباشته شرطی برای تجمیع گرادیان ها. |
ResourceConditionalAccumulator.Options | ویژگی های اختیاری برای ResourceConditionalAccumulator |
ResourceSparseApplyAdadelta | var: باید از یک متغیر () باشد. |
ResourceSparseApplyAdadelta.Options | ویژگی های اختیاری برای ResourceSparseApplyAdadelta |
ResourceSparseApplyAdagrad | طبق طرح adagrad ورودی های مربوطه را در '*var' و '*accum' به روز کنید. |
ResourceSparseApplyAdagrad.Options | ویژگی های اختیاری برای ResourceSparseApplyAdagrad |
ResourceSparseApplyAdagradDa | ورودیهای «*var» و «*accum» را طبق طرح آداگراد پروگزیمال بهروزرسانی کنید. |
ResourceSparseApplyAdagradDa.Options | ویژگی های اختیاری برای ResourceSparseApplyAdagradDa |
ResourceSparseApplyAdagradV2 | طبق طرح adagrad ورودی های مربوطه را در '*var' و '*accum' به روز کنید. |
ResourceSparseApplyAdagradV2.Options | ویژگی های اختیاری برای ResourceSparseApplyAdagradV2 |
ResourceSparseApplyCenteredRmsProp | "*var" را مطابق با الگوریتم RMSProp متمرکز به روز کنید. |
ResourceSparseApplyCenteredRmsProp.Options | ویژگی های اختیاری برای ResourceSparseApplyCenteredRmsProp |
ResourceSparseApplyFtrl | ورودی های مربوطه را در '*var' طبق طرح Ftrl-proximal به روز کنید. |
ResourceSparseApplyFtrl.Options | ویژگی های اختیاری برای ResourceSparseApplyFtrl |
ResourceSparseApplyKerasMomentum | طبق طرح حرکت، ورودیهای مربوطه را در «*var» و «*accum» بهروزرسانی کنید. |
ResourceSparseApplyKerasMomentum.Options | ویژگی های اختیاری برای ResourceSparseApplyKerasMomentum |
ResourceSparseApplyMomentum | طبق طرح حرکت، ورودیهای مربوطه را در «*var» و «*accum» بهروزرسانی کنید. |
ResourceSparseApplyMomentum.Options | ویژگی های اختیاری برای ResourceSparseApplyMomentum |
ResourceSparseApplyProximalAdagrad | ورودی های به روز رسانی پراکنده در '*var' و '*accum' طبق الگوریتم FOBOS. |
ResourceSparseApplyProximalAdagrad.Options | ویژگی های اختیاری برای ResourceSparseApplyProximalAdagrad |
ResourceSparseApplyProximalGradientDescent | بهروزرسانی پراکنده '*var' به عنوان الگوریتم FOBOS با نرخ یادگیری ثابت. |
ResourceSparseApplyProximalGradientDescent.Options | ویژگی های اختیاری برای ResourceSparseApplyProximalGradientDescent |
ResourceSparseApplyRmsProp | "*var" را طبق الگوریتم RMSProp به روز کنید. |
ResourceSparseApplyRmsProp.Options | ویژگی های اختیاری برای ResourceSparseApplyRmsProp |
بازگرداندن | تانسورها را از یک ایست بازرسی V2 بازیابی می کند. |
RestoreSlice <T TType را گسترش می دهد > | یک تانسور را از فایل های ایست بازیابی بازیابی می کند. |
RestoreSlice.Options | ویژگی های اختیاری برای RestoreSlice |
صرفه جویی | تانسورها را در فرمت ایست بازرسی V2 ذخیره می کند. |
SaveSlices | برش های تانسور ورودی را روی دیسک ذخیره می کند. |
SdcaFprint | اثر انگشت رشته های ورودی را محاسبه می کند. |
SdcaOptimizer | نسخه توزیع شده از بهینه ساز تصادفی دو مختصات صعودی (SDCA) برای مدل های خطی با تنظیم L1 + L2. |
SdcaOptimizer.Options | ویژگی های اختیاری برای SdcaOptimizer |
SdcaShrinkL1 | مرحله کوچک شدن منظم سازی L1 را روی پارامترها اعمال می کند. |
SparseApplyAdadelta <T گسترش TType > | var: باید از یک متغیر () باشد. |
SparseApplyAdadelta.Options | ویژگی های اختیاری برای SparseApplyAdadelta |
SparseApplyAdagrad <T TType را گسترش می دهد | طبق طرح adagrad ورودی های مربوطه را در '*var' و '*accum' به روز کنید. |
SparseApplyAdagrad.Options | ویژگی های اختیاری برای SparseApplyAdagrad |
SparseApplyAdagradDa <T TType را گسترش می دهد | ورودیهای «*var» و «*accum» را طبق طرح آداگراد پروگزیمال بهروزرسانی کنید. |
SparseApplyAdagradDa.Options | ویژگی های اختیاری برای SparseApplyAdagradDa |
SparseApplyCenteredRmsProp <T TType > را گسترش می دهد | "*var" را مطابق با الگوریتم RMSProp متمرکز به روز کنید. |
SparseApplyCenteredRmsProp.Options | ویژگی های اختیاری برای SparseApplyCenteredRmsProp |
SparseApplyFtrl <T TType را گسترش می دهد > | ورودی های مربوطه را در '*var' طبق طرح Ftrl-proximal به روز کنید. |
SparseApplyFtrl.Options | ویژگی های اختیاری برای SparseApplyFtrl |
SparseApplyMomentum <T TType را گسترش می دهد > | طبق طرح حرکت، ورودیهای مربوطه را در «*var» و «*accum» بهروزرسانی کنید. |
SparseApplyMomentum.Options | ویژگی های اختیاری برای SparseApplyMomentum |
SparseApplyProximalAdagrad <T TType را گسترش می دهد | ورودی های به روز رسانی پراکنده در '*var' و '*accum' طبق الگوریتم FOBOS. |
SparseApplyProximalAdagrad.Options | ویژگی های اختیاری برای SparseApplyProximalAdagrad |
SparseApplyProximalGradientDescent <T TType را گسترش می دهد | بهروزرسانی پراکنده '*var' به عنوان الگوریتم FOBOS با نرخ یادگیری ثابت. |
SparseApplyProximalGradientDescent.Options | ویژگی های اختیاری برای SparseApplyProximalGradientDescent |
SparseApplyRmsProp <T TType > را گسترش می دهد | "*var" را طبق الگوریتم RMSProp به روز کنید. |
SparseApplyRmsProp.Options | ویژگی های اختیاری برای SparseApplyRmsProp |
TileGrad <T گسترش TType > | گرادیان «کاشی» را برمیگرداند. |