Стандартные оценщики решетки TF

Обзор

Стандартные оценщики - это быстрый и простой способ обучить модели TFL для типичных случаев использования. В этом руководстве описаны шаги, необходимые для создания стандартного оценщика TFL.

Настраивать

Установка пакета TF Lattice:

pip install tensorflow-lattice

Импорт необходимых пакетов:

import tensorflow as tf

import copy
import logging
import numpy as np
import pandas as pd
import sys
import tensorflow_lattice as tfl
from tensorflow import feature_column as fc
logging
.disable(sys.maxsize)

Загрузка набора данных UCI Statlog (Heart):

csv_file = tf.keras.utils.get_file(
   
'heart.csv', 'http://storage.googleapis.com/download.tensorflow.org/data/heart.csv')
df
= pd.read_csv(csv_file)
target
= df.pop('target')
train_size
= int(len(df) * 0.8)
train_x
= df[:train_size]
train_y
= target[:train_size]
test_x
= df[train_size:]
test_y
= target[train_size:]
df
.head()

Установка значений по умолчанию, используемых для обучения в этом руководстве:

LEARNING_RATE = 0.01
BATCH_SIZE
= 128
NUM_EPOCHS
= 500
PREFITTING_NUM_EPOCHS
= 10

Столбцы функций

Как и для любой другой оценки TF, данные должны быть переданы в оценщик, который , как правило , через input_fn и анализируется с помощью FeatureColumns .

# Feature columns.
# - age
# - sex
# - cp        chest pain type (4 values)
# - trestbps  resting blood pressure
# - chol      serum cholestoral in mg/dl
# - fbs       fasting blood sugar > 120 mg/dl
# - restecg   resting electrocardiographic results (values 0,1,2)
# - thalach   maximum heart rate achieved
# - exang     exercise induced angina
# - oldpeak   ST depression induced by exercise relative to rest
# - slope     the slope of the peak exercise ST segment
# - ca        number of major vessels (0-3) colored by flourosopy
# - thal      3 = normal; 6 = fixed defect; 7 = reversable defect
feature_columns
= [
    fc
.numeric_column('age', default_value=-1),
    fc
.categorical_column_with_vocabulary_list('sex', [0, 1]),
    fc
.numeric_column('cp'),
    fc
.numeric_column('trestbps', default_value=-1),
    fc
.numeric_column('chol'),
    fc
.categorical_column_with_vocabulary_list('fbs', [0, 1]),
    fc
.categorical_column_with_vocabulary_list('restecg', [0, 1, 2]),
    fc
.numeric_column('thalach'),
    fc
.categorical_column_with_vocabulary_list('exang', [0, 1]),
    fc
.numeric_column('oldpeak'),
    fc
.categorical_column_with_vocabulary_list('slope', [0, 1, 2]),
    fc
.numeric_column('ca'),
    fc
.categorical_column_with_vocabulary_list(
       
'thal', ['normal', 'fixed', 'reversible']),
]

Стандартные оценщики TFL используют тип столбца функций, чтобы решить, какой тип калибровочного слоя использовать. Мы используем tfl.layers.PWLCalibration слой для цифровых художественных колонн и tfl.layers.CategoricalCalibration слой для категориальных художественных колонн.

Обратите внимание, что столбцы категориальных характеристик не обертываются столбцом встраиваемых характеристик. Они напрямую поступают в оценщик.

Создание input_fn

Как и любой другой оценщик, вы можете использовать input_fn для передачи данных в модель для обучения и оценки. Оценщики TFL могут автоматически рассчитывать квантили функций и использовать их в качестве входных ключевых точек для калибровочного слоя PWL. Для этого они требуют прохождения feature_analysis_input_fn , которая похожа на подготовку input_fn , но с одной эпохой или подвыборками данных.

train_input_fn = tf.compat.v1.estimator.inputs.pandas_input_fn(
    x
=train_x,
    y
=train_y,
    shuffle
=False,
    batch_size
=BATCH_SIZE,
    num_epochs
=NUM_EPOCHS,
    num_threads
=1)

# feature_analysis_input_fn is used to collect statistics about the input.
feature_analysis_input_fn
= tf.compat.v1.estimator.inputs.pandas_input_fn(
    x
=train_x,
    y
=train_y,
    shuffle
=False,
    batch_size
=BATCH_SIZE,
   
# Note that we only need one pass over the data.
    num_epochs
=1,
    num_threads
=1)

test_input_fn
= tf.compat.v1.estimator.inputs.pandas_input_fn(
    x
=test_x,
    y
=test_y,
    shuffle
=False,
    batch_size
=BATCH_SIZE,
    num_epochs
=1,
    num_threads
=1)

# Serving input fn is used to create saved models.
serving_input_fn
= (
    tf
.estimator.export.build_parsing_serving_input_receiver_fn(
        feature_spec
=fc.make_parse_example_spec(feature_columns)))

Конфигурации функций

Калибровка Характеристики и в-функции конфигурация устанавливаются с помощью tfl.configs.FeatureConfig . Конфигурации включают Feature монотонности ограничения, в-функцию упорядочению (см tfl.configs.RegularizerConfig ) и решетку размеры для решетчатых моделей.

Если конфигурация не определена для функции ввода, конфигурации по умолчанию в tfl.config.FeatureConfig используются.

# Feature configs are used to specify how each feature is calibrated and used.
feature_configs
= [
    tfl
.configs.FeatureConfig(
        name
='age',
        lattice_size
=3,
       
# By default, input keypoints of pwl are quantiles of the feature.
        pwl_calibration_num_keypoints
=5,
        monotonicity
='increasing',
        pwl_calibration_clip_max
=100,
       
# Per feature regularization.
        regularizer_configs
=[
            tfl
.configs.RegularizerConfig(name='calib_wrinkle', l2=0.1),
       
],
   
),
    tfl
.configs.FeatureConfig(
        name
='cp',
        pwl_calibration_num_keypoints
=4,
       
# Keypoints can be uniformly spaced.
        pwl_calibration_input_keypoints
='uniform',
        monotonicity
='increasing',
   
),
    tfl
.configs.FeatureConfig(
        name
='chol',
       
# Explicit input keypoint initialization.
        pwl_calibration_input_keypoints
=[126.0, 210.0, 247.0, 286.0, 564.0],
        monotonicity
='increasing',
       
# Calibration can be forced to span the full output range by clamping.
        pwl_calibration_clamp_min
=True,
        pwl_calibration_clamp_max
=True,
       
# Per feature regularization.
        regularizer_configs
=[
            tfl
.configs.RegularizerConfig(name='calib_hessian', l2=1e-4),
       
],
   
),
    tfl
.configs.FeatureConfig(
        name
='fbs',
       
# Partial monotonicity: output(0) <= output(1)
        monotonicity
=[(0, 1)],
   
),
    tfl
.configs.FeatureConfig(
        name
='trestbps',
        pwl_calibration_num_keypoints
=5,
        monotonicity
='decreasing',
   
),
    tfl
.configs.FeatureConfig(
        name
='thalach',
        pwl_calibration_num_keypoints
=5,
        monotonicity
='decreasing',
   
),
    tfl
.configs.FeatureConfig(
        name
='restecg',
       
# Partial monotonicity: output(0) <= output(1), output(0) <= output(2)
        monotonicity
=[(0, 1), (0, 2)],
   
),
    tfl
.configs.FeatureConfig(
        name
='exang',
       
# Partial monotonicity: output(0) <= output(1)
        monotonicity
=[(0, 1)],
   
),
    tfl
.configs.FeatureConfig(
        name
='oldpeak',
        pwl_calibration_num_keypoints
=5,
        monotonicity
='increasing',
   
),
    tfl
.configs.FeatureConfig(
        name
='slope',
       
# Partial monotonicity: output(0) <= output(1), output(1) <= output(2)
        monotonicity
=[(0, 1), (1, 2)],
   
),
    tfl
.configs.FeatureConfig(
        name
='ca',
        pwl_calibration_num_keypoints
=4,
        monotonicity
='increasing',
   
),
    tfl
.configs.FeatureConfig(
        name
='thal',
       
# Partial monotonicity:
       
# output(normal) <= output(fixed)
       
# output(normal) <= output(reversible)        
        monotonicity
=[('normal', 'fixed'), ('normal', 'reversible')],
   
),
]

Калиброванная линейная модель

Для того, чтобы построить TFL консервированных оценок, построить конфигурацию модели из tfl.configs . Калиброванная линейная модель построена с использованием tfl.configs.CalibratedLinearConfig . Он применяет кусочно-линейную и категориальную калибровку к входным характеристикам, за которой следует линейная комбинация и дополнительная выходная кусочно-линейная калибровка. При использовании калибровки вывода или при указании границ вывода линейный слой будет применять взвешенное усреднение к откалиброванным входам.

В этом примере создается откалиброванная линейная модель на первых 5 объектах. Мы используем tfl.visualization для построения модели графа с калибратора участков.

# Model config defines the model structure for the estimator.
model_config
= tfl.configs.CalibratedLinearConfig(
    feature_configs
=feature_configs,
    use_bias
=True,
    output_calibration
=True,
    regularizer_configs
=[
       
# Regularizer for the output calibrator.
        tfl
.configs.RegularizerConfig(name='output_calib_hessian', l2=1e-4),
   
])
# A CannedClassifier is constructed from the given model config.
estimator
= tfl.estimators.CannedClassifier(
    feature_columns
=feature_columns[:5],
    model_config
=model_config,
    feature_analysis_input_fn
=feature_analysis_input_fn,
    optimizer
=tf.keras.optimizers.Adam(LEARNING_RATE),
    config
=tf.estimator.RunConfig(tf_random_seed=42))
estimator
.train(input_fn=train_input_fn)
results
= estimator.evaluate(input_fn=test_input_fn)
print('Calibrated linear test AUC: {}'.format(results['auc']))
saved_model_path
= estimator.export_saved_model(estimator.model_dir,
                                                serving_input_fn
)
model_graph
= tfl.estimators.get_model_graph(saved_model_path)
tfl
.visualization.draw_model_graph(model_graph)
2021-09-30 20:54:06.660239: E tensorflow/stream_executor/cuda/cuda_driver.cc:271] failed call to cuInit: CUDA_ERROR_NO_DEVICE: no CUDA-capable device is detected
Calibrated linear test AUC: 0.834586501121521

PNG

Калиброванная модель решетки

Калиброванные решетки модель построена с использованием tfl.configs.CalibratedLatticeConfig . Калиброванная решетчатая модель применяет кусочно-линейную и категориальную калибровку к входным объектам, за которой следует решеточная модель и дополнительная выходная кусочно-линейная калибровка.

В этом примере создается откалиброванная модель решетки на первых 5 элементах.

# This is calibrated lattice model: Inputs are calibrated, then combined
# non-linearly using a lattice layer.
model_config
= tfl.configs.CalibratedLatticeConfig(
    feature_configs
=feature_configs,
    regularizer_configs
=[
       
# Torsion regularizer applied to the lattice to make it more linear.
        tfl
.configs.RegularizerConfig(name='torsion', l2=1e-4),
       
# Globally defined calibration regularizer is applied to all features.
        tfl
.configs.RegularizerConfig(name='calib_hessian', l2=1e-4),
   
])
# A CannedClassifier is constructed from the given model config.
estimator
= tfl.estimators.CannedClassifier(
    feature_columns
=feature_columns[:5],
    model_config
=model_config,
    feature_analysis_input_fn
=feature_analysis_input_fn,
    optimizer
=tf.keras.optimizers.Adam(LEARNING_RATE),
    config
=tf.estimator.RunConfig(tf_random_seed=42))
estimator
.train(input_fn=train_input_fn)
results
= estimator.evaluate(input_fn=test_input_fn)
print('Calibrated lattice test AUC: {}'.format(results['auc']))
saved_model_path
= estimator.export_saved_model(estimator.model_dir,
                                                serving_input_fn
)
model_graph
= tfl.estimators.get_model_graph(saved_model_path)
tfl
.visualization.draw_model_graph(model_graph)
Calibrated lattice test AUC: 0.8427318930625916

PNG

Откалиброванный решетчатый ансамбль

Когда количество функций велико, вы можете использовать ансамблевую модель, которая создает несколько меньших решеток для подмножеств функций и усредняет их выходные данные вместо создания одной огромной решетки. Ансамбль решетчатые модели построены с использованием tfl.configs.CalibratedLatticeEnsembleConfig . Калиброванная модель ансамбля решеток применяет кусочно-линейную и категориальную калибровку к входному объекту, за которой следует ансамбль решетчатых моделей и дополнительная выходная кусочно-линейная калибровка.

Ансамбль случайных решеток

Следующая конфигурация модели использует случайное подмножество функций для каждой решетки.

# This is random lattice ensemble model with separate calibration:
# model output is the average output of separately calibrated lattices.
model_config
= tfl.configs.CalibratedLatticeEnsembleConfig(
    feature_configs
=feature_configs,
    num_lattices
=5,
    lattice_rank
=3)
# A CannedClassifier is constructed from the given model config.
estimator
= tfl.estimators.CannedClassifier(
    feature_columns
=feature_columns,
    model_config
=model_config,
    feature_analysis_input_fn
=feature_analysis_input_fn,
    optimizer
=tf.keras.optimizers.Adam(LEARNING_RATE),
    config
=tf.estimator.RunConfig(tf_random_seed=42))
estimator
.train(input_fn=train_input_fn)
results
= estimator.evaluate(input_fn=test_input_fn)
print('Random ensemble test AUC: {}'.format(results['auc']))
saved_model_path
= estimator.export_saved_model(estimator.model_dir,
                                                serving_input_fn
)
model_graph
= tfl.estimators.get_model_graph(saved_model_path)
tfl
.visualization.draw_model_graph(model_graph, calibrator_dpi=15)
Random ensemble test AUC: 0.9003759026527405

PNG

Ансамбль случайных решеток слоя RTL

Следующая модель конфигурация использует tfl.layers.RTL слой , который использует случайное подмножество функций для каждой решетки. Отметим , что tfl.layers.RTL поддерживает только монотонности ограничения и должны иметь одинаковый размер решетки для всех функций и не за-функции упорядочению. Обратите внимание , что при использовании tfl.layers.RTL слоя позволяет масштабировать до гораздо больших ансамблей , чем при использовании отдельных tfl.layers.Lattice экземпляров.

# Make sure our feature configs have the same lattice size, no per-feature
# regularization, and only monotonicity constraints.
rtl_layer_feature_configs
= copy.deepcopy(feature_configs)
for feature_config in rtl_layer_feature_configs:
  feature_config
.lattice_size = 2
  feature_config
.unimodality = 'none'
  feature_config
.reflects_trust_in = None
  feature_config
.dominates = None
  feature_config
.regularizer_configs = None
# This is RTL layer ensemble model with separate calibration:
# model output is the average output of separately calibrated lattices.
model_config
= tfl.configs.CalibratedLatticeEnsembleConfig(
    lattices
='rtl_layer',
    feature_configs
=rtl_layer_feature_configs,
    num_lattices
=5,
    lattice_rank
=3)
# A CannedClassifier is constructed from the given model config.
estimator
= tfl.estimators.CannedClassifier(
    feature_columns
=feature_columns,
    model_config
=model_config,
    feature_analysis_input_fn
=feature_analysis_input_fn,
    optimizer
=tf.keras.optimizers.Adam(LEARNING_RATE),
    config
=tf.estimator.RunConfig(tf_random_seed=42))
estimator
.train(input_fn=train_input_fn)
results
= estimator.evaluate(input_fn=test_input_fn)
print('Random ensemble test AUC: {}'.format(results['auc']))
saved_model_path
= estimator.export_saved_model(estimator.model_dir,
                                                serving_input_fn
)
model_graph
= tfl.estimators.get_model_graph(saved_model_path)
tfl
.visualization.draw_model_graph(model_graph, calibrator_dpi=15)
Random ensemble test AUC: 0.8903509378433228

PNG

Ансамбль решетки кристаллов

TFL также эвристический алгоритм компоновки функция, которая называется Crystals . Кристаллы алгоритм сначала тренирует prefitting модели, оценки попарных функций взаимодействия. Затем он упорядочивает окончательный ансамбль таким образом, чтобы объекты с большим количеством нелинейных взаимодействий находились в одних и тех же решетках.

Для кристаллов моделей, вы также должны предоставить prefitting_input_fn , который используется для обучения модели prefitting, как описано выше. Модель предварительной подгонки не требует полного обучения, поэтому нескольких эпох должно хватить.

prefitting_input_fn = tf.compat.v1.estimator.inputs.pandas_input_fn(
    x
=train_x,
    y
=train_y,
    shuffle
=False,
    batch_size
=BATCH_SIZE,
    num_epochs
=PREFITTING_NUM_EPOCHS,
    num_threads
=1)

Затем вы можете создать модель Кристал установкой lattice='crystals' в модели конфигурации.

# This is Crystals ensemble model with separate calibration: model output is
# the average output of separately calibrated lattices.
model_config
= tfl.configs.CalibratedLatticeEnsembleConfig(
    feature_configs
=feature_configs,
    lattices
='crystals',
    num_lattices
=5,
    lattice_rank
=3)
# A CannedClassifier is constructed from the given model config.
estimator
= tfl.estimators.CannedClassifier(
    feature_columns
=feature_columns,
    model_config
=model_config,
    feature_analysis_input_fn
=feature_analysis_input_fn,
   
# prefitting_input_fn is required to train the prefitting model.
    prefitting_input_fn
=prefitting_input_fn,
    optimizer
=tf.keras.optimizers.Adam(LEARNING_RATE),
    prefitting_optimizer
=tf.keras.optimizers.Adam(LEARNING_RATE),
    config
=tf.estimator.RunConfig(tf_random_seed=42))
estimator
.train(input_fn=train_input_fn)
results
= estimator.evaluate(input_fn=test_input_fn)
print('Crystals ensemble test AUC: {}'.format(results['auc']))
saved_model_path
= estimator.export_saved_model(estimator.model_dir,
                                                serving_input_fn
)
model_graph
= tfl.estimators.get_model_graph(saved_model_path)
tfl
.visualization.draw_model_graph(model_graph, calibrator_dpi=15)
Crystals ensemble test AUC: 0.8840851783752441

PNG

Вы можете построить полнометражные калибраторы с большим количеством деталей , используя tfl.visualization модуль.

_ = tfl.visualization.plot_feature_calibrator(model_graph, "age")
_
= tfl.visualization.plot_feature_calibrator(model_graph, "restecg")

PNG

PNG