Envío de datos diferentes a clientes particulares con tff.federated_select

Este tutorial demuestra cómo implementar algoritmos federados personalizados en TFF que requieren el envío de diferentes datos a diferentes clientes. Es posible que ya esté familiarizado con tff.federated_broadcast que envía un único valor que se da servidor a todos los clientes. Este tutorial se centra en casos en los que se envían diferentes partes de un valor basado en servidor a diferentes clientes. Esto puede resultar útil para dividir partes de un modelo entre diferentes clientes con el fin de evitar enviar el modelo completo a un solo cliente.

Vamos a empezar importando tanto tensorflow y tensorflow_federated .

!pip install --quiet --upgrade tensorflow-federated-nightly
!pip install --quiet --upgrade nest-asyncio

import nest_asyncio
nest_asyncio
.apply()
import tensorflow as tf
import tensorflow_federated as tff
tff
.backends.native.set_local_python_execution_context()

Envío de diferentes valores según los datos del cliente

Considere el caso en el que tenemos una lista colocada en el servidor desde la cual queremos enviar algunos elementos a cada cliente en función de algunos datos colocados por el cliente. Por ejemplo, una lista de cadenas en el servidor y en los clientes, una lista de índices separados por comas para descargar. Podemos implementar eso de la siguiente manera:

list_of_strings_type = tff.TensorType(tf.string, [None])
# We only ever send exactly two values to each client. The number of keys per
# client must be a fixed number across all clients.
number_of_keys_per_client
= 2
keys_type
= tff.TensorType(tf.int32, [number_of_keys_per_client])
get_size
= tff.tf_computation(lambda x: tf.size(x))
select_fn
= tff.tf_computation(lambda val, index: tf.gather(val, index))
client_data_type
= tf.string

# A function from our client data to the indices of the values we'd like to
# select from the server.
@tff.tf_computation(client_data_type)
@tff.check_returns_type(keys_type)
def keys_for_client(client_string):
 
# We assume our client data is a single string consisting of exactly three
 
# comma-separated integers indicating which values to grab from the server.
  split
= tf.strings.split([client_string], sep=',')[0]
 
return tf.strings.to_number([split[0], split[1]], tf.int32)

@tff.tf_computation(tff.SequenceType(tf.string))
@tff.check_returns_type(tf.string)
def concatenate(values):
 
def reduce_fn(acc, item):
   
return tf.cond(tf.math.equal(acc, ''),
                   
lambda: item,
                   
lambda: tf.strings.join([acc, item], ','))
 
return values.reduce('', reduce_fn)

@tff.federated_computation(tff.type_at_server(list_of_strings_type), tff.type_at_clients(client_data_type))
def broadcast_based_on_client_data(list_of_strings_at_server, client_data):
  keys_at_clients
= tff.federated_map(keys_for_client, client_data)
  max_key
= tff.federated_map(get_size, list_of_strings_at_server)
  values_at_clients
= tff.federated_select(keys_at_clients, max_key, list_of_strings_at_server, select_fn)
  value_at_clients
= tff.federated_map(concatenate, values_at_clients)
 
return value_at_clients

Luego, podemos simular nuestro cálculo proporcionando la lista de cadenas colocada en el servidor, así como los datos de cadena para cada cliente:

client_data = ['0,1', '1,2', '2,0']
broadcast_based_on_client_data
(['a', 'b', 'c'], client_data)
[<tf.Tensor: shape=(), dtype=string, numpy=b'a,b'>,
 <tf.Tensor: shape=(), dtype=string, numpy=b'b,c'>,
 <tf.Tensor: shape=(), dtype=string, numpy=b'c,a'>]

Envío de un elemento aleatorio a cada cliente

Alternativamente, puede resultar útil enviar una parte aleatoria de los datos del servidor a cada cliente. Podemos implementar eso generando primero una clave aleatoria en cada cliente y luego siguiendo un proceso de selección similar al utilizado anteriormente:

@tff.tf_computation(tf.int32)
@tff.check_returns_type(tff.TensorType(tf.int32, [1]))
def get_random_key(max_key):
 
return tf.random.uniform(shape=[1], minval=0, maxval=max_key, dtype=tf.int32)

list_of_strings_type
= tff.TensorType(tf.string, [None])
get_size
= tff.tf_computation(lambda x: tf.size(x))
select_fn
= tff.tf_computation(lambda val, index: tf.gather(val, index))

@tff.tf_computation(tff.SequenceType(tf.string))
@tff.check_returns_type(tf.string)
def get_last_element(sequence):
 
return sequence.reduce('', lambda _initial_state, val: val)

@tff.federated_computation(tff.type_at_server(list_of_strings_type))
def broadcast_random_element(list_of_strings_at_server):
  max_key_at_server
= tff.federated_map(get_size, list_of_strings_at_server)
  max_key_at_clients
= tff.federated_broadcast(max_key_at_server)
  key_at_clients
= tff.federated_map(get_random_key, max_key_at_clients)
  random_string_sequence_at_clients
= tff.federated_select(
      key_at_clients
, max_key_at_server, list_of_strings_at_server, select_fn)
 
# Even though we only passed in a single key, `federated_select` returns a
 
# sequence for each client. We only care about the last (and only) element.
  random_string_at_clients
= tff.federated_map(get_last_element, random_string_sequence_at_clients)
 
return random_string_at_clients

Desde nuestra broadcast_random_element función no toma en cualquier dato colocado en el cliente, tenemos que configurar la simulación en tiempo de ejecución TFF con un número predeterminado de clientes para utilizar:

tff.backends.native.set_local_python_execution_context(default_num_clients=3)

Entonces podemos simular la selección. Podemos cambiar default_num_clients anteriores y la lista de cadenas a continuación para generar resultados diferentes, o simplemente volver a ejecutar el cálculo para generar salidas aleatorias diferentes.

broadcast_random_element(tf.convert_to_tensor(['foo', 'bar', 'baz']))