Google I/O एक लपेट है! TensorFlow सत्रों पर पकड़ बनाएं सत्र देखें

tff.federated_select . के साथ विशेष ग्राहकों को अलग-अलग डेटा भेजना

TensorFlow.org पर देखें Google Colab में चलाएं GitHub पर स्रोत देखें नोटबुक डाउनलोड करें

यह ट्यूटोरियल दर्शाता है कि TFF में कस्टम फ़ेडरेटेड एल्गोरिदम को कैसे लागू किया जाए जिसके लिए अलग-अलग क्लाइंट को अलग-अलग डेटा भेजने की आवश्यकता होती है। आप पहले से ही परिचित हो सकते हैं tff.federated_broadcast जो सभी ग्राहकों को एक ही सर्वर स्थान पर काबिज मूल्य भेजता है। यह ट्यूटोरियल उन मामलों पर ध्यान केंद्रित करता है जहां सर्वर-आधारित मान के विभिन्न भाग अलग-अलग क्लाइंट को भेजे जाते हैं। यह एक मॉडल के कुछ हिस्सों को अलग-अलग क्लाइंट में विभाजित करने के लिए उपयोगी हो सकता है ताकि पूरे मॉडल को किसी एक क्लाइंट को भेजने से बचा जा सके।

चलो दोनों आयात करके आरंभ करने के tensorflow और tensorflow_federated

!pip install --quiet --upgrade tensorflow-federated-nightly
!pip install --quiet --upgrade nest-asyncio

import nest_asyncio
nest_asyncio.apply()
import tensorflow as tf
import tensorflow_federated as tff
tff.backends.native.set_local_python_execution_context()

क्लाइंट डेटा के आधार पर अलग-अलग मान भेजना

उस मामले पर विचार करें जहां हमारे पास कुछ सर्वर-प्लेस्ड सूची है जिसमें से हम कुछ क्लाइंट-प्लेस्ड डेटा के आधार पर प्रत्येक क्लाइंट को कुछ तत्व भेजना चाहते हैं। उदाहरण के लिए, सर्वर पर स्ट्रिंग की एक सूची, और क्लाइंट पर, डाउनलोड करने के लिए सूचकांकों की अल्पविराम से अलग की गई सूची। हम इसे इस प्रकार कार्यान्वित कर सकते हैं:

list_of_strings_type = tff.TensorType(tf.string, [None])
# We only ever send exactly two values to each client. The number of keys per
# client must be a fixed number across all clients.
number_of_keys_per_client = 2
keys_type = tff.TensorType(tf.int32, [number_of_keys_per_client])
get_size = tff.tf_computation(lambda x: tf.size(x))
select_fn = tff.tf_computation(lambda val, index: tf.gather(val, index))
client_data_type = tf.string

# A function from our client data to the indices of the values we'd like to
# select from the server.
@tff.tf_computation(client_data_type)
@tff.check_returns_type(keys_type)
def keys_for_client(client_string):
  # We assume our client data is a single string consisting of exactly three
  # comma-separated integers indicating which values to grab from the server.
  split = tf.strings.split([client_string], sep=',')[0]
  return tf.strings.to_number([split[0], split[1]], tf.int32)

@tff.tf_computation(tff.SequenceType(tf.string))
@tff.check_returns_type(tf.string)
def concatenate(values):
  def reduce_fn(acc, item):
    return tf.cond(tf.math.equal(acc, ''),
                   lambda: item,
                   lambda: tf.strings.join([acc, item], ','))
  return values.reduce('', reduce_fn)

@tff.federated_computation(tff.type_at_server(list_of_strings_type), tff.type_at_clients(client_data_type))
def broadcast_based_on_client_data(list_of_strings_at_server, client_data):
  keys_at_clients = tff.federated_map(keys_for_client, client_data)
  max_key = tff.federated_map(get_size, list_of_strings_at_server)
  values_at_clients = tff.federated_select(keys_at_clients, max_key, list_of_strings_at_server, select_fn)
  value_at_clients = tff.federated_map(concatenate, values_at_clients)
  return value_at_clients

फिर हम प्रत्येक क्लाइंट के लिए स्ट्रिंग डेटा के साथ-साथ सर्वर-आधारित सूची प्रदान करके हमारी गणना का अनुकरण कर सकते हैं:

client_data = ['0,1', '1,2', '2,0']
broadcast_based_on_client_data(['a', 'b', 'c'], client_data)
[<tf.Tensor: shape=(), dtype=string, numpy=b'a,b'>,
 <tf.Tensor: shape=(), dtype=string, numpy=b'b,c'>,
 <tf.Tensor: shape=(), dtype=string, numpy=b'c,a'>]

प्रत्येक ग्राहक को एक यादृच्छिक तत्व भेजना

वैकल्पिक रूप से, प्रत्येक क्लाइंट को सर्वर डेटा का एक यादृच्छिक भाग भेजना उपयोगी हो सकता है। हम इसे लागू कर सकते हैं पहले प्रत्येक क्लाइंट पर एक यादृच्छिक कुंजी उत्पन्न करके और फिर ऊपर उपयोग किए गए समान चयन प्रक्रिया का पालन करके:

@tff.tf_computation(tf.int32)
@tff.check_returns_type(tff.TensorType(tf.int32, [1]))
def get_random_key(max_key):
  return tf.random.uniform(shape=[1], minval=0, maxval=max_key, dtype=tf.int32)

list_of_strings_type = tff.TensorType(tf.string, [None])
get_size = tff.tf_computation(lambda x: tf.size(x))
select_fn = tff.tf_computation(lambda val, index: tf.gather(val, index))

@tff.tf_computation(tff.SequenceType(tf.string))
@tff.check_returns_type(tf.string)
def get_last_element(sequence):
  return sequence.reduce('', lambda _initial_state, val: val)

@tff.federated_computation(tff.type_at_server(list_of_strings_type))
def broadcast_random_element(list_of_strings_at_server):
  max_key_at_server = tff.federated_map(get_size, list_of_strings_at_server)
  max_key_at_clients = tff.federated_broadcast(max_key_at_server)
  key_at_clients = tff.federated_map(get_random_key, max_key_at_clients)
  random_string_sequence_at_clients = tff.federated_select(
      key_at_clients, max_key_at_server, list_of_strings_at_server, select_fn)
  # Even though we only passed in a single key, `federated_select` returns a
  # sequence for each client. We only care about the last (and only) element.
  random_string_at_clients = tff.federated_map(get_last_element, random_string_sequence_at_clients)
  return random_string_at_clients

चूंकि हमारे broadcast_random_element समारोह किसी भी ग्राहक स्थान पर काबिज डेटा में नहीं ले करता है, हम उपयोग करने के लिए ग्राहकों की एक डिफ़ॉल्ट संख्या के साथ TFF सिमुलेशन रनटाइम कॉन्फ़िगर करने के लिए है:

tff.backends.native.set_local_python_execution_context(default_num_clients=3)

फिर हम चयन का अनुकरण कर सकते हैं। हम बदल सकते हैं default_num_clients के ऊपर और नीचे तार अलग परिणाम, या बस गणना फिर से चलाने के विभिन्न यादृच्छिक आउटपुट उत्पन्न करने के लिए उत्पन्न करने के लिए की सूची।

broadcast_random_element(tf.convert_to_tensor(['foo', 'bar', 'baz']))