ResourceApplyAdagrad
সেভ করা পৃষ্ঠা গুছিয়ে রাখতে 'সংগ্রহ' ব্যবহার করুন
আপনার পছন্দ অনুযায়ী কন্টেন্ট সেভ করুন ও সঠিক বিভাগে রাখুন।
অ্যাডগ্রাড স্কিম অনুযায়ী '*var' আপডেট করুন।
accum += grad * grad var -= lr * grad * (1 / (sqrt(accum) + epsilon))
ধ্রুবক
স্ট্রিং | OP_NAME | এই অপের নাম, টেনসরফ্লো কোর ইঞ্জিন দ্বারা পরিচিত |
উত্তরাধিকারসূত্রে প্রাপ্ত পদ্ধতি
java.lang.Object ক্লাস থেকে বুলিয়ান | সমান (অবজেক্ট arg0) |
চূড়ান্ত ক্লাস<?> | getClass () |
int | হ্যাশ কোড () |
চূড়ান্ত শূন্যতা | অবহিত () |
চূড়ান্ত শূন্যতা | সকলকে অবহিত করুন () |
স্ট্রিং | স্ট্রিং () |
চূড়ান্ত শূন্যতা | অপেক্ষা করুন (দীর্ঘ arg0, int arg1) |
চূড়ান্ত শূন্যতা | অপেক্ষা করুন (দীর্ঘ arg0) |
চূড়ান্ত শূন্যতা | অপেক্ষা করুন () |
ধ্রুবক
সর্বজনীন স্ট্যাটিক চূড়ান্ত স্ট্রিং OP_NAME
এই অপের নাম, টেনসরফ্লো কোর ইঞ্জিন দ্বারা পরিচিত
ধ্রুবক মান: "ResourceApplyAdagradV2"
পাবলিক পদ্ধতি
একটি নতুন ResourceApplyAdagrad অপারেশন মোড়ানো একটি ক্লাস তৈরি করার কারখানা পদ্ধতি।
পরামিতি
সুযোগ | বর্তমান সুযোগ |
---|
var | একটি পরিবর্তনশীল() থেকে হওয়া উচিত। |
---|
accum | একটি পরিবর্তনশীল() থেকে হওয়া উচিত। |
---|
lr | স্কেলিং ফ্যাক্টর। একটি স্কেলার হতে হবে। |
---|
epsilon | ধ্রুবক ফ্যাক্টর। একটি স্কেলার হতে হবে। |
---|
স্নাতক | গ্রেডিয়েন্ট। |
---|
বিকল্প | ঐচ্ছিক বৈশিষ্ট্য মান বহন করে |
---|
রিটার্নস
- ResourceApplyAdagrad এর একটি নতুন উদাহরণ
পরামিতি
লকিং ব্যবহার করুন | যদি `True` হয়, var এবং accum tensors আপডেট করা একটি লক দ্বারা সুরক্ষিত হবে; অন্যথায় আচরণটি অনির্ধারিত, তবে কম বিরোধ প্রদর্শন করতে পারে। |
---|
অন্য কিছু উল্লেখ না করা থাকলে, এই পৃষ্ঠার কন্টেন্ট Creative Commons Attribution 4.0 License-এর অধীনে এবং কোডের নমুনাগুলি Apache 2.0 License-এর অধীনে লাইসেন্স প্রাপ্ত। আরও জানতে, Google Developers সাইট নীতি দেখুন। Java হল Oracle এবং/অথবা তার অ্যাফিলিয়েট সংস্থার রেজিস্টার্ড ট্রেডমার্ক।
2025-07-26 UTC-তে শেষবার আপডেট করা হয়েছে।
[null,null,["2025-07-26 UTC-তে শেষবার আপডেট করা হয়েছে।"],[],[],null,["# ResourceApplyAdagrad\n\npublic final class **ResourceApplyAdagrad** \nUpdate '\\*var' according to the adagrad scheme.\n\n\naccum += grad \\* grad\nvar -= lr \\* grad \\* (1 / (sqrt(accum) + epsilon))\n\n\u003cbr /\u003e\n\n### Nested Classes\n\n|-------|---|---|-----------------------------------------------------------------------------------------------------------------|\n| class | [ResourceApplyAdagrad.Options](/jvm/api_docs/java/org/tensorflow/op/train/ResourceApplyAdagrad.Options) || Optional attributes for [ResourceApplyAdagrad](/jvm/api_docs/java/org/tensorflow/op/train/ResourceApplyAdagrad) |\n\n### Constants\n\n|--------|------------------------------------------------------------------------------------|---------------------------------------------------------|\n| String | [OP_NAME](/jvm/api_docs/java/org/tensorflow/op/train/ResourceApplyAdagrad#OP_NAME) | The name of this op, as known by TensorFlow core engine |\n\n### Public Methods\n\n|----------------------------------------------------------------------------------------------------------------------------------------------------------------------------|--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| static \\\u003cT extends [TType](/jvm/api_docs/java/org/tensorflow/types/family/TType)\\\u003e [ResourceApplyAdagrad](/jvm/api_docs/java/org/tensorflow/op/train/ResourceApplyAdagrad) | [create](/jvm/api_docs/java/org/tensorflow/op/train/ResourceApplyAdagrad#create(org.tensorflow.op.Scope, org.tensorflow.Operand\u003c?\u003e, org.tensorflow.Operand\u003c?\u003e, org.tensorflow.Operand\u003cT\u003e, org.tensorflow.Operand\u003cT\u003e, org.tensorflow.Operand\u003cT\u003e, org.tensorflow.op.train.ResourceApplyAdagrad.Options...))([Scope](/jvm/api_docs/java/org/tensorflow/op/Scope) scope, [Operand](/jvm/api_docs/java/org/tensorflow/Operand)\\\u003c?\\\u003e var, [Operand](/jvm/api_docs/java/org/tensorflow/Operand)\\\u003c?\\\u003e accum, [Operand](/jvm/api_docs/java/org/tensorflow/Operand)\\\u003cT\\\u003e lr, [Operand](/jvm/api_docs/java/org/tensorflow/Operand)\\\u003cT\\\u003e epsilon, [Operand](/jvm/api_docs/java/org/tensorflow/Operand)\\\u003cT\\\u003e grad, [Options...](/jvm/api_docs/java/org/tensorflow/op/train/ResourceApplyAdagrad.Options) options) Factory method to create a class wrapping a new ResourceApplyAdagrad operation. |\n| static [ResourceApplyAdagrad.Options](/jvm/api_docs/java/org/tensorflow/op/train/ResourceApplyAdagrad.Options) | [updateSlots](/jvm/api_docs/java/org/tensorflow/op/train/ResourceApplyAdagrad#updateSlots(java.lang.Boolean))(Boolean updateSlots) |\n| static [ResourceApplyAdagrad.Options](/jvm/api_docs/java/org/tensorflow/op/train/ResourceApplyAdagrad.Options) | [useLocking](/jvm/api_docs/java/org/tensorflow/op/train/ResourceApplyAdagrad#useLocking(java.lang.Boolean))(Boolean useLocking) |\n\n### Inherited Methods\n\nFrom class [org.tensorflow.op.RawOp](/jvm/api_docs/java/org/tensorflow/op/RawOp) \n\n|----------------------------------------------------------|---------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| final boolean | [equals](/jvm/api_docs/java/org/tensorflow/op/RawOp#equals(java.lang.Object))(Object obj) |\n| final int | [hashCode](/jvm/api_docs/java/org/tensorflow/op/RawOp#hashCode())() |\n| [Operation](/jvm/api_docs/java/org/tensorflow/Operation) | [op](/jvm/api_docs/java/org/tensorflow/op/RawOp#op())() Return this unit of computation as a single [Operation](/jvm/api_docs/java/org/tensorflow/Operation). |\n| final String | [toString](/jvm/api_docs/java/org/tensorflow/op/RawOp#toString())() |\n\nFrom class java.lang.Object \n\n|------------------|---------------------------|\n| boolean | equals(Object arg0) |\n| final Class\\\u003c?\\\u003e | getClass() |\n| int | hashCode() |\n| final void | notify() |\n| final void | notifyAll() |\n| String | toString() |\n| final void | wait(long arg0, int arg1) |\n| final void | wait(long arg0) |\n| final void | wait() |\n\nFrom interface [org.tensorflow.op.Op](/jvm/api_docs/java/org/tensorflow/op/Op) \n\n|-----------------------------------------------------------------------------------------|------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| abstract [ExecutionEnvironment](/jvm/api_docs/java/org/tensorflow/ExecutionEnvironment) | [env](/jvm/api_docs/java/org/tensorflow/op/Op#env())() Return the execution environment this op was created in. |\n| abstract [Operation](/jvm/api_docs/java/org/tensorflow/Operation) | [op](/jvm/api_docs/java/org/tensorflow/op/Op#op())() Return this unit of computation as a single [Operation](/jvm/api_docs/java/org/tensorflow/Operation). |\n\nConstants\n---------\n\n#### public static final String\n**OP_NAME**\n\nThe name of this op, as known by TensorFlow core engine \nConstant Value: \"ResourceApplyAdagradV2\"\n\nPublic Methods\n--------------\n\n#### public static [ResourceApplyAdagrad](/jvm/api_docs/java/org/tensorflow/op/train/ResourceApplyAdagrad)\n**create**\n([Scope](/jvm/api_docs/java/org/tensorflow/op/Scope) scope, [Operand](/jvm/api_docs/java/org/tensorflow/Operand)\\\u003c?\\\u003e var, [Operand](/jvm/api_docs/java/org/tensorflow/Operand)\\\u003c?\\\u003e accum, [Operand](/jvm/api_docs/java/org/tensorflow/Operand)\\\u003cT\\\u003e lr, [Operand](/jvm/api_docs/java/org/tensorflow/Operand)\\\u003cT\\\u003e epsilon, [Operand](/jvm/api_docs/java/org/tensorflow/Operand)\\\u003cT\\\u003e grad, [Options...](/jvm/api_docs/java/org/tensorflow/op/train/ResourceApplyAdagrad.Options) options)\n\nFactory method to create a class wrapping a new ResourceApplyAdagrad operation. \n\n##### Parameters\n\n| scope | current scope |\n| var | Should be from a Variable(). |\n| accum | Should be from a Variable(). |\n| lr | Scaling factor. Must be a scalar. |\n| epsilon | Constant factor. Must be a scalar. |\n| grad | The gradient. |\n| options | carries optional attributes values |\n|---------|------------------------------------|\n\n##### Returns\n\n- a new instance of ResourceApplyAdagrad \n\n#### public static [ResourceApplyAdagrad.Options](/jvm/api_docs/java/org/tensorflow/op/train/ResourceApplyAdagrad.Options)\n**updateSlots**\n(Boolean updateSlots)\n\n\u003cbr /\u003e\n\n#### public static [ResourceApplyAdagrad.Options](/jvm/api_docs/java/org/tensorflow/op/train/ResourceApplyAdagrad.Options)\n**useLocking**\n(Boolean useLocking)\n\n\u003cbr /\u003e\n\n##### Parameters\n\n| useLocking | If \\`True\\`, updating of the var and accum tensors will be protected by a lock; otherwise the behavior is undefined, but may exhibit less contention. |\n|------------|-------------------------------------------------------------------------------------------------------------------------------------------------------|"]]