Krótkie wprowadzenie do TensorFlow 2 dla początkujących

Zobacz na TensorFlow.org Uruchom w Google Colab Wyświetl źródło na GitHub Pobierz notatnik

To krótkie wprowadzenie wykorzystuje Kerasa do:

  1. Załaduj gotowy zestaw danych.
  2. Zbuduj model uczenia maszynowego sieci neuronowej, który klasyfikuje obrazy.
  3. Trenuj tę sieć neuronową.
  4. Oceń dokładność modelu.

Ten samouczek to notatnik Google Colaboratory . Programy w Pythonie są uruchamiane bezpośrednio w przeglądarce — to świetny sposób na naukę i korzystanie z TensorFlow. Aby skorzystać z tego samouczka, uruchom notatnik w Google Colab, klikając przycisk u góry tej strony.

  1. W Colab połącz się ze środowiskiem wykonawczym Pythona: w prawym górnym rogu paska menu wybierz POŁĄCZ .
  2. Uruchom wszystkie komórki kodu notatnika: Wybierz Runtime > Uruchom wszystko .

Skonfiguruj TensorFlow

Zaimportuj TensorFlow do swojego programu, aby rozpocząć:

import tensorflow as tf
print("TensorFlow version:", tf.__version__)
TensorFlow version: 2.8.0-rc1

Jeśli podążasz za własnym środowiskiem programistycznym, a nie Colab , zapoznaj się z przewodnikiem instalacji, aby skonfigurować TensorFlow do programowania.

Załaduj zbiór danych

Załaduj i przygotuj zestaw danych MNIST . Przekształć przykładowe dane z liczb całkowitych na liczby zmiennoprzecinkowe:

mnist = tf.keras.datasets.mnist

(x_train, y_train), (x_test, y_test) = mnist.load_data()
x_train, x_test = x_train / 255.0, x_test / 255.0

Zbuduj model uczenia maszynowego

Zbuduj model tf.keras.Sequential , układając warstwy.

model = tf.keras.models.Sequential([
  tf.keras.layers.Flatten(input_shape=(28, 28)),
  tf.keras.layers.Dense(128, activation='relu'),
  tf.keras.layers.Dropout(0.2),
  tf.keras.layers.Dense(10)
])

Dla każdego przykładu model zwraca wektor wyników logit lub log-odds , po jednym dla każdej klasy.

predictions = model(x_train[:1]).numpy()
predictions
array([[ 0.2760778 , -0.39324787, -0.17098302,  1.2016621 , -0.03416392,
         0.5461229 , -0.7203061 , -0.41886678, -0.59480035, -0.7580608 ]],
      dtype=float32)

Funkcja tf.nn.softmax konwertuje te logity na prawdopodobieństwa dla każdej klasy:

tf.nn.softmax(predictions).numpy()
array([[0.11960829, 0.06124588, 0.0764901 , 0.30181262, 0.08770514,
        0.15668967, 0.04416083, 0.05969675, 0.05006609, 0.04252464]],
      dtype=float32)

Zdefiniuj funkcję straty do uczenia przy użyciu losses.SparseCategoricalCrossentropy , która pobiera wektor logit i indeks True i zwraca stratę skalarną dla każdego przykładu.

loss_fn = tf.keras.losses.SparseCategoricalCrossentropy(from_logits=True)

Ta strata jest równa ujemnemu logarytmicznemu prawdopodobieństwu prawdziwej klasy: Strata wynosi zero, jeśli model jest pewien, że klasa jest prawidłowa.

Ten niewytrenowany model daje prawdopodobieństwa bliskie losowości (1/10 dla każdej klasy), więc początkowa strata powinna być bliska -tf.math.log(1/10) ~= 2.3 .

loss_fn(y_train[:1], predictions).numpy()
1.8534881

Przed rozpoczęciem szkolenia skonfiguruj i skompiluj model za pomocą Keras Model.compile . Ustaw klasę optimizer na adam , ustaw loss na zdefiniowaną wcześniej funkcję loss_fn i określ metrykę do oceny dla modelu, ustawiając parametr metrics na accuracy .

model.compile(optimizer='adam',
              loss=loss_fn,
              metrics=['accuracy'])

Trenuj i oceniaj swój model

Użyj metody Model.fit , aby dostosować parametry modelu i zminimalizować straty:

model.fit(x_train, y_train, epochs=5)
Epoch 1/5
1875/1875 [==============================] - 4s 2ms/step - loss: 0.2950 - accuracy: 0.9143
Epoch 2/5
1875/1875 [==============================] - 3s 2ms/step - loss: 0.1451 - accuracy: 0.9567
Epoch 3/5
1875/1875 [==============================] - 4s 2ms/step - loss: 0.1080 - accuracy: 0.9668
Epoch 4/5
1875/1875 [==============================] - 4s 2ms/step - loss: 0.0906 - accuracy: 0.9717
Epoch 5/5
1875/1875 [==============================] - 4s 2ms/step - loss: 0.0749 - accuracy: 0.9761
<keras.callbacks.History at 0x7f062c606850>

Metoda Model.evaluate sprawdza wydajność modeli, zwykle na „ zestawie walidacyjnym ” lub „ zestawie testowym ”.

model.evaluate(x_test,  y_test, verbose=2)
313/313 - 1s - loss: 0.0783 - accuracy: 0.9755 - 588ms/epoch - 2ms/step
[0.07825208455324173, 0.9754999876022339]

Klasyfikator obrazu jest teraz wyszkolony do ~98% dokładności w tym zestawie danych. Aby dowiedzieć się więcej, przeczytaj samouczki TensorFlow .

Jeśli chcesz, aby Twój model zwracał prawdopodobieństwo, możesz zawinąć wytrenowany model i dołączyć do niego softmax:

probability_model = tf.keras.Sequential([
  model,
  tf.keras.layers.Softmax()
])
probability_model(x_test[:5])
<tf.Tensor: shape=(5, 10), dtype=float32, numpy=
array([[2.72807270e-08, 2.42517650e-08, 7.75602894e-06, 1.28684027e-04,
        7.66215633e-11, 3.54162950e-07, 3.04894151e-14, 9.99857187e-01,
        2.32766553e-08, 5.97762892e-06],
       [7.37396704e-08, 4.73638036e-04, 9.99523997e-01, 7.20633352e-07,
        4.54133671e-17, 1.42298268e-06, 5.96959016e-09, 1.23534145e-13,
        7.77225608e-08, 6.98619169e-16],
       [1.95462448e-07, 9.99295831e-01, 1.02249986e-04, 1.86699708e-05,
        5.65737491e-06, 1.12115902e-06, 5.32719559e-06, 5.22767776e-04,
        4.79981136e-05, 1.76624681e-07],
       [9.99649286e-01, 1.80224735e-09, 3.73612856e-05, 1.52324446e-07,
        1.30824594e-06, 2.82781020e-05, 6.99703523e-05, 3.30940424e-07,
        2.13184350e-07, 2.13106396e-04],
       [1.53770895e-06, 1.72272063e-08, 1.98980865e-06, 3.97882580e-08,
        9.97192323e-01, 1.10544443e-05, 1.54713348e-06, 2.81727880e-05,
        3.48721733e-06, 2.75991508e-03]], dtype=float32)>

Wniosek

Gratulacje! Wytrenowano model uczenia maszynowego przy użyciu gotowego zestawu danych przy użyciu interfejsu API Keras .

Więcej przykładów korzystania z Keras znajdziesz w samouczkach . Aby dowiedzieć się więcej o budowaniu modeli za pomocą Keras, przeczytaj przewodniki . Jeśli chcesz dowiedzieć się więcej o ładowaniu i przygotowywaniu danych, zapoznaj się z samouczkami dotyczącymi ładowania danych obrazu lub ładowania danych CSV .