Google I/O to frajda! Nadrobić zaległości w sesjach TensorFlow Zobacz sesje

Prywatność w uczeniu maszynowym

Ważnym aspektem odpowiedzialnego korzystania z sztucznej inteligencji jest zapewnienie, że modele ML nie mogą ujawniać potencjalnie wrażliwych informacji, takich jak dane demograficzne lub inne atrybuty w zestawie danych szkoleniowych, które można wykorzystać do identyfikacji osób. Jednym ze sposobów na osiągnięcie tego jest użycie zróżnicowanego prywatnego stochastycznego zejścia gradientowego (DP-SGD), który jest modyfikacją standardowego algorytmu stochastycznego zejścia gradientowego (SGD) w uczeniu maszynowym.

Modele wytrenowane za pomocą DP-SGD mają wymierne ulepszenia prywatności różnicowej (DP), co pomaga zmniejszyć ryzyko ujawnienia poufnych danych szkoleniowych. Ponieważ celem DP jest zapobieganie identyfikowaniu poszczególnych punktów danych, na model wytrenowany za pomocą DP nie powinien mieć wpływu żaden pojedynczy przykład uczący w jego zestawie danych uczących. Techniki DP-SGD mogą być również używane w sfederowanym uczeniu się, aby zapewnić prywatność różnicową na poziomie użytkownika. Możesz dowiedzieć się więcej o zróżnicowanym prywatnym uczeniu głębokim z oryginalnego artykułu .

import tensorflow as tf
from tensorflow_privacy.privacy.optimizers import dp_optimizer_keras

# Select your differentially private optimizer
optimizer = tensorflow_privacy.DPKerasSGDOptimizer(
    l2_norm_clip=l2_norm_clip,
    noise_multiplier=noise_multiplier,
    num_microbatches=num_microbatches,
    learning_rate=learning_rate)

# Select your loss function
loss = tf.keras.losses.CategoricalCrossentropy(
    from_logits=True, reduction=tf.losses.Reduction.NONE)

# Compile your model
model.compile(optimizer=optimizer, loss=loss, metrics=['accuracy'])

# Fit your model
model.fit(train_data, train_labels,
  epochs=epochs,
  validation_data=(test_data, test_labels),
  batch_size=batch_size)
  

Prywatność TensorFlow

Tensorflow Privacy (TF Privacy) to biblioteka typu open source opracowana przez zespoły Google Research. Biblioteka zawiera implementacje powszechnie używanych Optymalizatorów TensorFlow do uczenia modeli ML z DP. Celem jest umożliwienie praktykom ML korzystającym ze standardowych interfejsów API Tensorflow do trenowania modeli chroniących prywatność poprzez zmianę tylko kilku linijek kodu.

Optymalizatory prywatnie różnicowo mogą być używane w połączeniu z interfejsami API wysokiego poziomu, które używają klasy Optimizer, zwłaszcza Keras. Dodatkowo można znaleźć implementacje różniące się prywatnością niektórych modeli Keras. Wszystkie optymalizatory i modele można znaleźć w dokumentacji API .