TensorFlow.org এ দেখুন | Google Colab-এ চালান | GitHub-এ উৎস দেখুন | নোটবুক ডাউনলোড করুন |
ক্লায়েন্টদের (যেমন ব্যবহারকারীদের) দ্বারা চাবিকৃত ডেটাসেটের ধারণাটি TFF-তে মডেল হিসাবে ফেডারেটেড গণনার জন্য অপরিহার্য। TFF ইন্টারফেস প্রদান tff.simulation.datasets.ClientData
এই ধারণা উপর বিমূর্ত, এবং ডেটাসেট যা TFF হোস্ট ( Stackoverflow , শেক্সপীয়ার , emnist , cifar100 এবং gldv2 ) সমস্ত এই ইন্টারফেস বাস্তবায়ন।
আপনি আপনার নিজের ডেটা সেটটি সঙ্গে ফেডারেট শেখার উপর কাজ করেন, তাহলে TFF দৃঢ়ভাবে আপনাকে পারেন বাস্তবায়ন উৎসাহিত ClientData
একটি জেনারেট করতে TFF এর সাহায্যকারী ফাংশন ইন্টারফেস বা ব্যবহারের এক ClientData
যা ডিস্ক এ আপনার ডেটা প্রতিনিধিত্ব করে, যেমন tff.simulation.datasets.ClientData.from_clients_and_fn
.
TFF শেষে-টু-এন্ড উদাহরণ অধিকাংশ দিয়ে শুরু হিসাবে ClientData
বস্তু, বাস্তবায়ন ClientData
আপনার কাস্টম ডেটা সেটটি সঙ্গে ইন্টারফেস এটা TFF সঙ্গে লিখিত বিদ্যমান কোড মাধ্যমে spelunk সহজ করতে হবে। উপরন্তু, tf.data.Datasets
যা ClientData
নির্মানের কাঠামো উত্পাদ সরাসরি উপর iterated যাবে numpy
অ্যারে, তাই ClientData
বস্তু TFF থেকে সরানোর আগে কোনো পাইথন ভিত্তিক এমএল ফ্রেমওয়ার্ক ব্যবহার করা যেতে পারে।
আপনি যদি অনেক মেশিনে আপনার সিমুলেশন স্কেল করতে চান বা সেগুলি স্থাপন করতে চান তবে এমন বেশ কয়েকটি প্যাটার্ন রয়েছে যার সাহায্যে আপনি আপনার জীবনকে আরও সহজ করে তুলতে পারেন। নীচে আমরা উপায়ে আমরা ব্যবহার করতে পারি কয়েক ভিতর দিয়ে হেটে হবে ClientData
এবং TFF আমাদের ক্ষুদ্র পুনরাবৃত্তির-টু বড় মাপের উৎপাদন পরীক্ষা-টু স্থাপনার অভিজ্ঞতা করতে যতটা সম্ভব মসৃণ।
ক্লায়েন্টডেটা টিএফএফ-এ পাস করতে আমার কোন প্যাটার্ন ব্যবহার করা উচিত?
আমরা TFF এর দুই ব্যবহারগুলির আলোচনা করব ClientData
গভীরতা; আপনি যদি নীচের দুটি বিভাগের যেকোন একটিতে ফিট হন, আপনি স্পষ্টভাবে একটিকে অন্যটির চেয়ে পছন্দ করবেন। যদি তা না হয়, তাহলে আরও সূক্ষ্ম পছন্দ করার জন্য আপনাকে প্রতিটির সুবিধা এবং অসুবিধা সম্পর্কে আরও বিশদ বোঝার প্রয়োজন হতে পারে।
আমি একটি স্থানীয় মেশিনে যত তাড়াতাড়ি সম্ভব পুনরাবৃত্তি করতে চাই; TFF এর বিতরণ করা রানটাইম থেকে সহজে সুবিধা নিতে সক্ষম হওয়ার দরকার নেই।
- আপনি পাস করতে চান
tf.data.Datasets
সরাসরি TFF হবে। - এই আপনি imperatively প্রোগ্রামের সাথে করতে পারবেন
tf.data.Dataset
বস্তু, এবং তাদের ইচ্ছামত প্রক্রিয়া হয়। - এটি নীচের বিকল্পের চেয়ে আরও নমনীয়তা প্রদান করে; ক্লায়েন্টদের কাছে লজিক পুশ করার জন্য এই লজিকটি সিরিয়ালাইজেবল হওয়া প্রয়োজন।
- আপনি পাস করতে চান
আমি TFF এর দূরবর্তী রানটাইমে আমার ফেডারেটেড গণনা চালাতে চাই, অথবা আমি শীঘ্রই করার পরিকল্পনা করছি।
- এই ক্ষেত্রে আপনি ক্লায়েন্টদের কাছে ডেটাসেট নির্মাণ এবং প্রিপ্রসেসিং ম্যাপ করতে চান।
- আপনি এই ফলাফল কেবল একটি তালিকা ক্ষণস্থায়ী
client_ids
সরাসরি আপনার ফেডারেট গণনার জন্য। - ক্লায়েন্টদের কাছে ডেটাসেট নির্মাণ এবং প্রি-প্রসেসিং ধাক্কা দেওয়া সিরিয়ালাইজেশনে বাধা এড়ায় এবং শত শত থেকে হাজার হাজার ক্লায়েন্টের সাথে উল্লেখযোগ্যভাবে কর্মক্ষমতা বাড়ায়।
ওপেন সোর্স পরিবেশ সেট আপ করুন
# tensorflow_federated_nightly also bring in tf_nightly, which
# can causes a duplicate tensorboard install, leading to errors.
!pip uninstall --yes tensorboard tb-nightly
!pip install --quiet --upgrade tensorflow_federated_nightly
!pip install --quiet --upgrade nest_asyncio
import nest_asyncio
nest_asyncio.apply()
প্যাকেজ আমদানি করুন
import collections
import time
import tensorflow as tf
import tensorflow_federated as tff
একটি ক্লায়েন্টডেটা অবজেক্ট ম্যানিপুলেট করা
এর লোড হচ্ছে এবং TFF এর EMNIST অন্বেষণ করে শুরু করা যাক ClientData
:
client_data, _ = tff.simulation.datasets.emnist.load_data()
Downloading emnist_all.sqlite.lzma: 100%|██████████| 170507172/170507172 [00:19<00:00, 8831921.67it/s] 2021-10-01 11:17:58.718735: E tensorflow/stream_executor/cuda/cuda_driver.cc:271] failed call to cuInit: CUDA_ERROR_NO_DEVICE: no CUDA-capable device is detected
প্রথম ডেটা সেটটি পরিদর্শন আমাদের বলতে পারেন উদাহরণ কি ধরনের হয় ClientData
।
first_client_id = client_data.client_ids[0]
first_client_dataset = client_data.create_tf_dataset_for_client(
first_client_id)
print(first_client_dataset.element_spec)
# This information is also available as a `ClientData` property:
assert client_data.element_type_structure == first_client_dataset.element_spec
OrderedDict([('label', TensorSpec(shape=(), dtype=tf.int32, name=None)), ('pixels', TensorSpec(shape=(28, 28), dtype=tf.float32, name=None))])
লক্ষ্য করুন ডেটা সেটটি উৎপাদনের collections.OrderedDict
বস্তু আছে pixels
এবং label
কি, যেখানে পিক্সেল আকৃতি সঙ্গে একটি টেন্সর হয় [28, 28]
। ধরুন আমরা আকৃতি আউট আমাদের ইনপুট চেপ্টা করতে ইচ্ছুক [784]
। একটি সম্ভাব্য আমরা যেভাবে এটা করতে পারেন আমাদের জন্য একটি প্রাক প্রক্রিয়াকরণ ফাংশন প্রয়োগ করতে হবে ClientData
অবজেক্ট।
def preprocess_dataset(dataset):
"""Create batches of 5 examples, and limit to 3 batches."""
def map_fn(input):
return collections.OrderedDict(
x=tf.reshape(input['pixels'], shape=(-1, 784)),
y=tf.cast(tf.reshape(input['label'], shape=(-1, 1)), tf.int64),
)
return dataset.batch(5).map(
map_fn, num_parallel_calls=tf.data.experimental.AUTOTUNE).take(5)
preprocessed_client_data = client_data.preprocess(preprocess_dataset)
# Notice that we have both reshaped and renamed the elements of the ordered dict.
first_client_dataset = preprocessed_client_data.create_tf_dataset_for_client(
first_client_id)
print(first_client_dataset.element_spec)
OrderedDict([('x', TensorSpec(shape=(None, 784), dtype=tf.float32, name=None)), ('y', TensorSpec(shape=(None, 1), dtype=tf.int64, name=None))])
আমরা আরও কিছু জটিল (এবং সম্ভবত স্টেটফুল) প্রিপ্রসেসিং সঞ্চালন করতে চাই, উদাহরণস্বরূপ শাফলিং।
def preprocess_and_shuffle(dataset):
"""Applies `preprocess_dataset` above and shuffles the result."""
preprocessed = preprocess_dataset(dataset)
return preprocessed.shuffle(buffer_size=5)
preprocessed_and_shuffled = client_data.preprocess(preprocess_and_shuffle)
# The type signature will remain the same, but the batches will be shuffled.
first_client_dataset = preprocessed_and_shuffled.create_tf_dataset_for_client(
first_client_id)
print(first_client_dataset.element_spec)
OrderedDict([('x', TensorSpec(shape=(None, 784), dtype=tf.float32, name=None)), ('y', TensorSpec(shape=(None, 1), dtype=tf.int64, name=None))])
একটি সঙ্গে পোশাকের tff.Computation
এখন যে আমরা কিছু মৌলিক হেরফেরের সম্পাদন করতে পারবেন ClientData
বস্তু, আমরা একটি ফিড তথ্য করার জন্য প্রস্তুত হয় tff.Computation
। আমরা একটি সংজ্ঞায়িত tff.templates.IterativeProcess
যা প্রয়োগ ফেডারেটেড গড় , এবং এটি একদম পাশ করার বিভিন্ন পদ্ধতি অন্বেষণ।
def model_fn():
model = tf.keras.models.Sequential([
tf.keras.layers.InputLayer(input_shape=(784,)),
tf.keras.layers.Dense(10, kernel_initializer='zeros'),
])
return tff.learning.from_keras_model(
model,
# Note: input spec is the _batched_ shape, and includes the
# label tensor which will be passed to the loss function. This model is
# therefore configured to accept data _after_ it has been preprocessed.
input_spec=collections.OrderedDict(
x=tf.TensorSpec(shape=[None, 784], dtype=tf.float32),
y=tf.TensorSpec(shape=[None, 1], dtype=tf.int64)),
loss=tf.keras.losses.SparseCategoricalCrossentropy(from_logits=True),
metrics=[tf.keras.metrics.SparseCategoricalAccuracy()])
trainer = tff.learning.build_federated_averaging_process(
model_fn,
client_optimizer_fn=lambda: tf.keras.optimizers.SGD(learning_rate=0.01))
আগে আমরা এই সঙ্গে কাজ শুরু IterativeProcess
, এর শব্দার্থবিদ্যা এক মন্তব্য ClientData
আদেশ হয়। একজন ClientData
বস্তুর জনসংখ্যা ফেডারেট প্রশিক্ষণ, যা সাধারণভাবে জন্য উপলব্ধ সম্পূর্ণতা প্রতিনিধিত্ব করে একটি প্রকাশনা এফএল সিস্টেম সঞ্চালনের পরিবেশ পাওয়া যায় না এবং সিমুলেশন নির্দিষ্ট। ClientData
প্রকৃতপক্ষে ব্যবহারকারী বাইপাস ফেডারেট কম্পিউটিং ক্ষমতা সম্পূর্ণরূপে দেয় এবং কেবল মাধ্যমে যথারীতি একটি সার্ভার সাইড মডেল প্রশিক্ষণ ClientData.create_tf_dataset_from_all_clients
।
TFF এর সিমুলেশন পরিবেশ গবেষককে বাইরের লুপের সম্পূর্ণ নিয়ন্ত্রণে রাখে। বিশেষ করে এটি ক্লায়েন্টের প্রাপ্যতা, ক্লায়েন্ট ড্রপআউট, ইত্যাদির বিবেচনাকে বোঝায়, ব্যবহারকারী বা পাইথন ড্রাইভার স্ক্রিপ্ট দ্বারা অবশ্যই সমাধান করা উচিত। এক পারা আপনার উপর স্যাম্পলিং বন্টন সামঞ্জস্য করে উদাহরণস্বরূপ মডেল ক্লায়েন্ট ড্রপআউট জন্য ClientData's
client_ids
যেমন যে আরো ডেটা ব্যবহারকারীদের (এবং সঙ্গতিপূর্ণভাবেই স্থানীয় কম্পিউটেশন দীর্ঘ চলমান) কম সম্ভাবনা সঙ্গে বাছাই করা হবে।
একটি বাস্তব ফেডারেটেড সিস্টেমে, তবে, মডেল প্রশিক্ষক দ্বারা ক্লায়েন্টদের স্পষ্টভাবে নির্বাচন করা যায় না; ক্লায়েন্টদের নির্বাচন সেই সিস্টেমে অর্পণ করা হয় যা ফেডারেটেড গণনা চালাচ্ছে।
পাসিং tf.data.Datasets
TFF সরাসরি
একটি বিকল্প আমরা মধ্যে পোশাকের জন্য আছে ClientData
এবং IterativeProcess
যে নির্মানের হয় tf.data.Datasets
পাইথন, এবং TFF এইসব ডেটাসেট ক্ষণস্থায়ী।
লক্ষ করুন যে, যদি আমরা আমাদের preprocessed ব্যবহার ClientData
ডেটাসেট আমরা উত্পাদ উপযুক্ত টাইপ আমাদের মডেল উপরে সংজ্ঞায়িত দ্বারা প্রত্যাশিত হয়।
selected_client_ids = preprocessed_and_shuffled.client_ids[:10]
preprocessed_data_for_clients = [
preprocessed_and_shuffled.create_tf_dataset_for_client(
selected_client_ids[i]) for i in range(10)
]
state = trainer.initialize()
for _ in range(5):
t1 = time.time()
state, metrics = trainer.next(state, preprocessed_data_for_clients)
t2 = time.time()
print('loss {}, round time {}'.format(metrics['train']['loss'], t2 - t1))
WARNING:tensorflow:From /tmpfs/src/tf_docs_env/lib/python3.7/site-packages/tensorflow_federated/python/core/impl/compiler/tensorflow_computation_transformations.py:62: extract_sub_graph (from tensorflow.python.framework.graph_util_impl) is deprecated and will be removed in a future version. Instructions for updating: Use `tf.compat.v1.graph_util.extract_sub_graph` WARNING:tensorflow:From /tmpfs/src/tf_docs_env/lib/python3.7/site-packages/tensorflow_federated/python/core/impl/compiler/tensorflow_computation_transformations.py:62: extract_sub_graph (from tensorflow.python.framework.graph_util_impl) is deprecated and will be removed in a future version. Instructions for updating: Use `tf.compat.v1.graph_util.extract_sub_graph` loss 2.9005744457244873, round time 4.576513767242432 loss 3.113278388977051, round time 0.49641919136047363 loss 2.7581865787506104, round time 0.4904160499572754 loss 2.87259578704834, round time 0.48976993560791016 loss 3.1202380657196045, round time 0.6724586486816406
আমরা এই রুট নিতে পারেন, তবে, আমরা জাভাস্ক্রিপ্টে গার্বেজ multimachine সিমুলেশন যাওয়ার পারবে না। ডেটাসেট আমরা স্থানীয় TensorFlow রানটাইম মধ্যে গঠন করা পার্শ্ববর্তী পাইথন পরিবেশ থেকে রাষ্ট্র ক্যাপচার, এবং ধারাবাহিকতাতে বা deserialization ব্যর্থ যখন তারা রেফারেন্স রাষ্ট্র তাদের আর উপলব্ধ নেই যা চেষ্টা করতে পারেন। এই TensorFlow থেকে অবর্ণনীয় ভুলবশত উদাহরণস্বরূপ প্রকাশ করতে পারি tensor_util.cc
:
Check failed: DT_VARIANT == input.dtype() (21 vs. 20)
ক্লায়েন্টদের উপর ম্যাপিং নির্মাণ এবং প্রিপ্রসেসিং
এই সমস্যা এড়ানোর জন্য, TFF তার ব্যবহারকারীদের ডেটা সেটটি ইনস্ট্যান্স এবং এমন কিছু বিষয় যা প্রতিটি ক্লায়েন্টের স্থানীয়ভাবে ঘটবে যেমন preprocessing বিবেচনা, এবং TFF পথে সাহায্যকারী ব্যবহার করুন অথবা করার বিশেষ পরামর্শ দেওয়া হচ্ছে federated_map
স্পষ্টভাবে প্রতিটি ক্লায়েন্টের এই preprocessing কোড চালানোর জন্য।
ধারণাগতভাবে, এটি পছন্দ করার কারণটি পরিষ্কার: TFF-এর স্থানীয় রানটাইমে, ক্লায়েন্টদের শুধুমাত্র "দুর্ঘটনাক্রমে" বৈশ্বিক পাইথন পরিবেশে অ্যাক্সেস রয়েছে কারণ সমগ্র ফেডারেটেড অর্কেস্ট্রেশন একটি একক মেশিনে ঘটছে। এই মুহুর্তে এটি লক্ষণীয় যে অনুরূপ চিন্তাভাবনা TFF-এর ক্রস-প্ল্যাটফর্ম, সর্বদা-ক্রমিক, কার্যকরী দর্শনের জন্ম দেয়।
TFF মাধ্যমে এই ধরনের একটি পরিবর্তন সহজ করে তোলে ClientData's
অ্যাট্রিবিউট dataset_computation
, একটি tff.Computation
যা লাগে client_id
এবং সংশ্লিষ্ট ফেরৎ tf.data.Dataset
।
মনে রাখবেন যে, preprocess
কেবল সাথে কাজ করে dataset_computation
; dataset_computation
preprocessed এর অ্যাট্রিবিউট ClientData
অন্তর্ভুক্ত সমগ্র প্রাক-প্রক্রিয়াকরণ পাইপলাইন আমরা শুধু সংজ্ঞা দিয়েছে:
print('dataset computation without preprocessing:')
print(client_data.dataset_computation.type_signature)
print('\n')
print('dataset computation with preprocessing:')
print(preprocessed_and_shuffled.dataset_computation.type_signature)
dataset computation without preprocessing: (string -> <label=int32,pixels=float32[28,28]>*) dataset computation with preprocessing: (string -> <x=float32[?,784],y=int64[?,1]>*)
আমরা ডাকা পারে dataset_computation
এবং পাইথন রানটাইম একটি উৎসুক ডেটা সেটটি পাবেন, কিন্তু এই পদ্ধতির প্রকৃত শক্তি প্রয়োগ করা হয় যখন আমরা একটি প্রক্রিয়া পুনরাবৃত্ত বা অন্য গণনার এ সব বিশ্বব্যাপী উৎসুক রানটাইম এই ডেটাসেট materializing এড়াতে সঙ্গে রচনা। TFF একটি সাহায্যকারী ফাংশন প্রদান করে tff.simulation.compose_dataset_computation_with_iterative_process
যা ঠিক এই কাজ করতে ব্যবহার করা যাবে।
trainer_accepting_ids = tff.simulation.compose_dataset_computation_with_iterative_process(
preprocessed_and_shuffled.dataset_computation, trainer)
উভয় এই tff.templates.IterativeProcesses
এবং একই ভাবে চালাতে উপরে এক; কিন্তু সাবেক preprocessed ক্লায়েন্ট ডেটাসেট গ্রহণ, এবং পরবর্তীটি ক্লায়েন্ট আইডি প্রতিনিধিত্বমূলক স্ট্রিং উভয় ডেটা সেটটি নির্মাণ হ্যান্ডলিং এবং তার শরীরে preprocessing গ্রহণ - আসলে state
দুই মধ্যে প্রেরণ করা সম্ভব।
for _ in range(5):
t1 = time.time()
state, metrics = trainer_accepting_ids.next(state, selected_client_ids)
t2 = time.time()
print('loss {}, round time {}'.format(metrics['train']['loss'], t2 - t1))
loss 2.8417396545410156, round time 1.6707067489624023 loss 2.7670371532440186, round time 0.5207102298736572 loss 2.665048122406006, round time 0.5302855968475342 loss 2.7213189601898193, round time 0.5313887596130371 loss 2.580148935317993, round time 0.5283482074737549
ক্লায়েন্টদের একটি বড় সংখ্যা স্কেলিং
trainer_accepting_ids
অবিলম্বে TFF এর multimachine রানটাইম ব্যবহার করা যেতে পারে, এবং এড়াতে materializing tf.data.Datasets
এবং নিয়ামক (এবং তাদের serializing ও কর্মীদের তাদের পাঠানোর)।
এটি উল্লেখযোগ্যভাবে বিতরণকৃত সিমুলেশনের গতি বাড়ায়, বিশেষ করে প্রচুর সংখ্যক ক্লায়েন্টের সাথে, এবং একই ধরনের সিরিয়ালাইজেশন/ডিসারিয়ালাইজেশন ওভারহেড এড়াতে মধ্যবর্তী সমষ্টি সক্ষম করে।
ঐচ্ছিক ডিপডাইভ: TFF-এ ম্যানুয়ালি প্রিপ্রসেসিং লজিক রচনা করা
TFF গ্রাউন্ড আপ থেকে compositionality জন্য ডিজাইন করা হয়েছে; TFF-এর সাহায্যকারীর দ্বারা সঞ্চালিত রচনাটি সম্পূর্ণরূপে ব্যবহারকারী হিসাবে আমাদের নিয়ন্ত্রণের মধ্যে রয়েছে। আমরা ম্যানুয়ালি থাকতে পারে প্রাক-প্রক্রিয়াকরণ গণনার আমরা শুধু সংজ্ঞায়িত রচনা প্রশিক্ষকের নিজস্ব next
বেশ সহজভাবে:
selected_clients_type = tff.FederatedType(preprocessed_and_shuffled.dataset_computation.type_signature.parameter, tff.CLIENTS)
@tff.federated_computation(trainer.next.type_signature.parameter[0], selected_clients_type)
def new_next(server_state, selected_clients):
preprocessed_data = tff.federated_map(preprocessed_and_shuffled.dataset_computation, selected_clients)
return trainer.next(server_state, preprocessed_data)
manual_trainer_with_preprocessing = tff.templates.IterativeProcess(initialize_fn=trainer.initialize, next_fn=new_next)
প্রকৃতপক্ষে, আমরা যে সাহায্যকারীকে ব্যবহার করেছি তা কার্যকরভাবে হুডের নিচে করছে (এছাড়া উপযুক্ত টাইপ চেকিং এবং ম্যানিপুলেশন করা)। আমরা এমনকি serializing দ্বারা সামান্য ভিন্নভাবে একই যুক্তি প্রকাশ করতে পারত preprocess_and_shuffle
একটি মধ্যে tff.Computation
এবং decomposing federated_map
এক ধাপ যা অ-preprocessed ডেটাসেট এবং অন্য যা রান নির্মান মধ্যে preprocess_and_shuffle
প্রতিটি ক্লায়েন্টের করেন।
আমরা যাচাই করতে পারি যে এই আরও-ম্যানুয়াল পথটি TFF-এর সাহায্যকারী (মডিউল প্যারামিটারের নাম) হিসাবে একই ধরণের স্বাক্ষর সহ কম্পিউটেশনে পরিণত হয়:
print(trainer_accepting_ids.next.type_signature)
print(manual_trainer_with_preprocessing.next.type_signature)
(<server_state=<model=<trainable=<float32[784,10],float32[10]>,non_trainable=<>>,optimizer_state=<int64>,delta_aggregate_state=<value_sum_process=<>,weight_sum_process=<>>,model_broadcast_state=<>>@SERVER,federated_dataset={string}@CLIENTS> -> <<model=<trainable=<float32[784,10],float32[10]>,non_trainable=<>>,optimizer_state=<int64>,delta_aggregate_state=<value_sum_process=<>,weight_sum_process=<>>,model_broadcast_state=<>>@SERVER,<broadcast=<>,aggregation=<mean_value=<>,mean_weight=<>>,train=<sparse_categorical_accuracy=float32,loss=float32>,stat=<num_examples=int64>>@SERVER>) (<server_state=<model=<trainable=<float32[784,10],float32[10]>,non_trainable=<>>,optimizer_state=<int64>,delta_aggregate_state=<value_sum_process=<>,weight_sum_process=<>>,model_broadcast_state=<>>@SERVER,selected_clients={string}@CLIENTS> -> <<model=<trainable=<float32[784,10],float32[10]>,non_trainable=<>>,optimizer_state=<int64>,delta_aggregate_state=<value_sum_process=<>,weight_sum_process=<>>,model_broadcast_state=<>>@SERVER,<broadcast=<>,aggregation=<mean_value=<>,mean_weight=<>>,train=<sparse_categorical_accuracy=float32,loss=float32>,stat=<num_examples=int64>>@SERVER>)