FFJORD

TensorFlow.org এ দেখুন Google Colab-এ চালান GitHub-এ উৎস দেখুন নোটবুক ডাউনলোড করুন

সেটআপ

প্রথমে এই ডেমোতে ব্যবহৃত প্যাকেজগুলি ইনস্টল করুন।

pip install -q dm-sonnet

আমদানি (tf, adjoint trick সহ tfp, ইত্যাদি)

import numpy as np
import tqdm as tqdm
import sklearn.datasets as skd

# visualization
import matplotlib.pyplot as plt
import seaborn as sns
from scipy.stats import kde

# tf and friends
import tensorflow.compat.v2 as tf
import tensorflow_probability as tfp
import sonnet as snt
tf.enable_v2_behavior()

tfb = tfp.bijectors
tfd = tfp.distributions

def make_grid(xmin, xmax, ymin, ymax, gridlines, pts):
  xpts = np.linspace(xmin, xmax, pts)
  ypts = np.linspace(ymin, ymax, pts)
  xgrid = np.linspace(xmin, xmax, gridlines)
  ygrid = np.linspace(ymin, ymax, gridlines)
  xlines = np.stack([a.ravel() for a in np.meshgrid(xpts, ygrid)])
  ylines = np.stack([a.ravel() for a in np.meshgrid(xgrid, ypts)])
  return np.concatenate([xlines, ylines], 1).T

grid = make_grid(-3, 3, -3, 3, 4, 100)
/usr/local/lib/python3.6/dist-packages/statsmodels/tools/_testing.py:19: FutureWarning: pandas.util.testing is deprecated. Use the functions in the public API at pandas.testing instead.
  import pandas.util.testing as tm

ভিজ্যুয়ালাইজেশনের জন্য হেল্পার ফাংশন

FFJORD বিজেক্টর

এই কোল্যাবে আমরা FFJORD বাইজেক্টর প্রদর্শন করি, যা মূলত Grathwohl, Will, et al দ্বারা পেপারে প্রস্তাবিত। লিংক arXiv

সংক্ষেপে এই ধরনের পদ্ধতির পিছনে ধারণা একটি পরিচিত বেস বন্টন এবং তথ্য বিতরণ মধ্যে একটি সাদৃশ্য স্থাপন করা হয়।

এই সংযোগ স্থাপন করতে, আমাদের প্রয়োজন

  1. একটি bijective মানচিত্র নির্ধারণ \(\mathcal{T}_{\theta}:\mathbf{x} \rightarrow \mathbf{y}\), \(\mathcal{T}_{\theta}^{1}:\mathbf{y} \rightarrow \mathbf{x}\) স্থান মধ্যে \(\mathcal{Y}\) যার উপর ভিত্তি বন্টন সংজ্ঞায়িত করা হয় এবং স্থান \(\mathcal{X}\) তথ্য ডোমেনের।
  2. দক্ষতার পরিগ্রহ করে আমরা সম্মুখের দিকে সম্ভাব্যতা ধারণা হস্তান্তর সঞ্চালন ট্র্যাক রাখতে \(\mathcal{X}\)।

দ্বিতীয় শর্ত সম্ভাব্যতা বিতরণের সংজ্ঞাসমূহ জন্য নিম্নলিখিত এক্সপ্রেশনে বিধিবদ্ধ করা হয় \(\mathcal{X}\):

\[ \log p_{\mathbf{x} }(\mathbf{x})=\log p_{\mathbf{y} }(\mathbf{y})-\log \operatorname{det}\left|\frac{\partial \mathcal{T}_{\theta}(\mathbf{y})}{\partial \mathbf{y} }\right| \]

FFJORD বিজেক্টর একটি রূপান্তর সংজ্ঞায়িত করে এটি সম্পন্ন করে

\[ \mathcal{T_{\theta} }: \mathbf{x} = \mathbf{z}(t_{0}) \rightarrow \mathbf{y} = \mathbf{z}(t_{1}) \quad : \quad \frac{d \mathbf{z} }{dt} = \mathbf{f}(t, \mathbf{z}, \theta) \]

যতদিন ফাংশন হিসাবে এই রূপান্তর, বিপরীত হয় \(\mathbf{f}\) রাষ্ট্র বিবর্তন বর্ণনা \(\mathbf{z}\) ভাল ভদ্র হয় এবং log_det_jacobian নিম্নলিখিত অভিব্যক্তি একীভূত নির্ণিত করা যেতে পারে।

\[ \log \operatorname{det}\left|\frac{\partial \mathcal{T}_{\theta}(\mathbf{y})}{\partial \mathbf{y} }\right| = -\int_{t_{0} }^{t_{1} } \operatorname{Tr}\left(\frac{\partial \mathbf{f}(t, \mathbf{z}, \theta)}{\partial \mathbf{z}(t)}\right) d t \]

এই ডেমো আমরা একটি FFJORD bijector প্রশিক্ষণ বন্টন দ্বারা সংজ্ঞায়িত সম্মুখের দিকে একটি গসিয়ান বন্টন দোমড়ানো হবে moons ডেটা সেটটি। এটি 3টি ধাপে করা হবে:

  • বেস বন্টন নির্ধারণ
  • FFJORD দ্বিজেক্টর সংজ্ঞায়িত করুন
  • ডেটাসেটের সঠিক লগ-সম্ভাবনা কমিয়ে দিন

প্রথমত, আমরা ডেটা লোড করি

ডেটাসেট

png

পরবর্তী, আমরা একটি বেস বন্টন ইনস্ট্যান্ট

base_loc = np.array([0.0, 0.0]).astype(np.float32)
base_sigma = np.array([0.8, 0.8]).astype(np.float32)
base_distribution = tfd.MultivariateNormalDiag(base_loc, base_sigma)

আমরা মডেলের perceptron একটি মাল্টি-লেয়ার ব্যবহার state_derivative_fn

এই ডেটা সেটটি জন্য প্রয়োজনীয় নয়, এটা প্রায়ই করতে benefitial হয় state_derivative_fn সময় উপর নির্ভরশীল। এখানে আমরা concatenating দ্বারা এই অর্জন t আমাদের নেটওয়ার্কের ইনপুট করতে।

class MLP_ODE(snt.Module):
  """Multi-layer NN ode_fn."""
  def __init__(self, num_hidden, num_layers, num_output, name='mlp_ode'):
    super(MLP_ODE, self).__init__(name=name)
    self._num_hidden = num_hidden
    self._num_output = num_output
    self._num_layers = num_layers
    self._modules = []
    for _ in range(self._num_layers - 1):
      self._modules.append(snt.Linear(self._num_hidden))
      self._modules.append(tf.math.tanh)
    self._modules.append(snt.Linear(self._num_output))
    self._model = snt.Sequential(self._modules)

  def __call__(self, t, inputs):
    inputs = tf.concat([tf.broadcast_to(t, inputs.shape), inputs], -1)
    return self._model(inputs)

মডেল এবং প্রশিক্ষণ পরামিতি

এখন আমরা FFJORD বিজেক্টরগুলির একটি স্ট্যাক তৈরি করি। প্রতিটি bijector সাথে উপলব্ধ করা হয় ode_solve_fn এবং trace_augmentation_fn এবং এটি নিজের ব্যাপার state_derivative_fn মডেল, যাতে তারা বিভিন্ন রূপান্তরের একটা ক্রম প্রতিনিধিত্ব করে।

বিল্ডিং দ্বিজেক্টর

এখন আমরা ব্যবহার করতে পারেন TransformedDistribution যা warping ফল base_distribution সঙ্গে stacked_ffjord bijector।

transformed_distribution = tfd.TransformedDistribution(
    distribution=base_distribution, bijector=stacked_ffjord)

এখন আমরা আমাদের প্রশিক্ষণ পদ্ধতি সংজ্ঞায়িত. আমরা কেবল ডেটার নেতিবাচক লগ-সম্ভাবনা কমিয়ে দিই।

প্রশিক্ষণ

নমুনা

ভিত্তি এবং রূপান্তরিত বিতরণ থেকে প্লট নমুনা.

evaluation_samples = []
base_samples, transformed_samples = get_samples()
transformed_grid = get_transformed_grid()
evaluation_samples.append((base_samples, transformed_samples, transformed_grid))
WARNING:tensorflow:From /usr/local/lib/python3.6/dist-packages/tensorflow/python/ops/resource_variable_ops.py:1817: calling BaseResourceVariable.__init__ (from tensorflow.python.ops.resource_variable_ops) with constraint is deprecated and will be removed in a future version.
Instructions for updating:
If using Keras pass *_constraint arguments to layers.
panel_id = 0
panel_data = evaluation_samples[panel_id]
fig, axarray = plt.subplots(
  1, 4, figsize=(16, 6))
plot_panel(
    grid, panel_data[0], panel_data[2], panel_data[1], moons, axarray, False)
plt.tight_layout()

png

learning_rate = tf.Variable(LR, trainable=False)
optimizer = snt.optimizers.Adam(learning_rate)

for epoch in tqdm.trange(NUM_EPOCHS // 2):
  base_samples, transformed_samples = get_samples()
  transformed_grid = get_transformed_grid()
  evaluation_samples.append(
      (base_samples, transformed_samples, transformed_grid))
  for batch in moons_ds:
    _ = train_step(optimizer, batch)
0%|          | 0/40 [00:00<?, ?it/s]
WARNING:tensorflow:From /usr/local/lib/python3.6/dist-packages/tensorflow_probability/python/math/ode/base.py:350: calling while_loop_v2 (from tensorflow.python.ops.control_flow_ops) with back_prop=False is deprecated and will be removed in a future version.
Instructions for updating:
back_prop=False is deprecated. Consider using tf.stop_gradient instead.
Instead of:
results = tf.while_loop(c, b, vars, back_prop=False)
Use:
results = tf.nest.map_structure(tf.stop_gradient, tf.while_loop(c, b, vars))
100%|██████████| 40/40 [07:00<00:00, 10.52s/it]
panel_id = -1
panel_data = evaluation_samples[panel_id]
fig, axarray = plt.subplots(
  1, 4, figsize=(16, 6))
plot_panel(grid, panel_data[0], panel_data[2], panel_data[1], moons, axarray)
plt.tight_layout()

png

শেখার হারের সাথে এটিকে দীর্ঘ সময়ের জন্য প্রশিক্ষণ দিলে আরও উন্নতি হয়।

এই উদাহরণে বলা হয়নি, FFJORD বিজেক্টর হাচিনসনের স্টোকাস্টিক ট্রেস অনুমান সমর্থন করে। বিশেষ মূল্নির্ধারক মাধ্যমে প্রদান করা যেতে পারে trace_augmentation_fn । একইভাবে বিকল্প integrators কাস্টম নির্ধারণ করে ব্যবহার করা যেতে পারে ode_solve_fn