TFX 사용자 가이드

소개

TFX는 TensorFlow를 기반으로 하는 Google 프로덕션 규모의 머신 러닝(ML) 플랫폼입니다. 기계 학습 시스템을 정의, 실행 및 모니터링하는 데 필요한 공통 구성 요소를 통합하기 위한 구성 프레임워크 및 공유 라이브러리를 제공합니다.

TFX 1.0

TFX 1.0.0 의 출시를 발표하게 되어 기쁩니다. 이것은 안정적인 공개 API 및 아티팩트를 제공하는 TFX의 초기 베타 이후 릴리스입니다. 이 RFC 에 정의된 호환성 범위 내에서 업그레이드 후에도 향후 TFX 파이프라인이 계속 작동할 것임을 확신할 수 있습니다.

설치

파이썬파이파이

pip install tfx

야간 패키지

TFX는 또한 Google Cloud의 https://pypi-nightly.tensorflow.org 에서 야간 패키지를 호스팅합니다. 최신 야간 패키지를 설치하려면 다음 명령을 사용하십시오.

pip install --extra-index-url https://pypi-nightly.tensorflow.org/simple --pre tfx

그러면 TensorFlow Model Analysis(TFMA), TensorFlow Data Validation(TFDV), TensorFlow Transform(TFT), TFX Basic Shared Libraries(TFX-BSL), ML Metadata(MLMD)와 같은 TFX의 주요 종속성을 위한 야간 패키지가 설치됩니다.

TFX 소개

TFX는 프로덕션 환경에서 ML 워크플로를 구축하고 관리하기 위한 플랫폼입니다. TFX는 다음을 제공합니다.

  • ML 파이프라인 구축을 위한 툴킷입니다. TFX 파이프라인을 사용하면 Apache Airflow, Apache Beam 및 Kubeflow Pipelines와 같은 여러 플랫폼에서 ML 워크플로를 오케스트레이션할 수 있습니다.

    TFX 파이프라인에 대해 자세히 알아보십시오 .

  • 파이프라인의 일부로 또는 ML 교육 스크립트의 일부로 사용할 수 있는 표준 구성 요소 집합입니다. TFX 표준 구성 요소는 ML 프로세스 구축을 쉽게 시작할 수 있도록 입증된 기능을 제공합니다.

    TFX 표준 구성 요소에 대해 자세히 알아보십시오 .

  • 많은 표준 구성 요소에 대한 기본 기능을 제공하는 라이브러리입니다. TFX 라이브러리를 사용하여 이 기능을 고유한 사용자 지정 구성 요소에 추가하거나 별도로 사용할 수 있습니다.

    TFX 라이브러리에 대해 자세히 알아보십시오 .

TFX는 TensorFlow를 기반으로 하는 Google 프로덕션 규모의 기계 학습 도구입니다. 기계 학습 시스템을 정의, 실행 및 모니터링하는 데 필요한 공통 구성 요소를 통합하기 위한 구성 프레임워크 및 공유 라이브러리를 제공합니다.

TFX 표준 구성 요소

TFX 파이프라인은 확장 가능한 고성능 기계 학습 작업을 위해 특별히 설계된 ML 파이프라인 을 구현하는 구성 요소 시퀀스입니다. 여기에는 모델링, 교육, 추론 제공 및 온라인, 기본 모바일 및 JavaScript 대상에 대한 배포 관리가 포함됩니다.

TFX 파이프라인에는 일반적으로 다음 구성 요소가 포함됩니다.

  • ExampleGen 은 입력 데이터 세트를 수집하고 선택적으로 분할하는 파이프라인의 초기 입력 구성 요소입니다.

  • StatisticsGen 은 데이터 세트에 대한 통계를 계산합니다.

  • SchemaGen 은 통계를 검사하고 데이터 스키마를 생성합니다.

  • ExampleValidator 는 데이터세트에서 이상 및 누락된 값을 찾습니다.

  • Transform 은 데이터 세트에서 기능 엔지니어링을 수행합니다.

  • 트레이너 는 모델을 훈련시킵니다.

  • Tuner 는 모델의 하이퍼파라미터를 조정합니다.

  • Evaluator 는 교육 ​​결과에 대한 심층 분석을 수행하고 내보낸 모델을 검증하여 프로덕션으로 푸시하기에 "충분히 좋은" 것인지 확인하는 데 도움을 줍니다.

  • InfraValidator 는 모델이 실제로 인프라에서 제공 가능한지 확인하고 잘못된 모델이 푸시되는 것을 방지합니다.

  • 푸셔 는 서비스 인프라에 모델을 배포합니다.

  • BulkInferrer 는 레이블이 지정되지 않은 추론 요청이 있는 모델에서 일괄 처리를 수행합니다.

이 다이어그램은 이러한 구성 요소 간의 데이터 흐름을 보여줍니다.

구성 요소 흐름

TFX 라이브러리

TFX에는 라이브러리와 파이프라인 구성 요소가 모두 포함되어 있습니다. 이 다이어그램은 TFX 라이브러리와 파이프라인 구성 요소 간의 관계를 보여줍니다.

라이브러리 및 구성 요소

TFX는 파이프라인 구성 요소를 만드는 데 사용되는 라이브러리인 여러 Python 패키지를 제공합니다. 이러한 라이브러리를 사용하여 파이프라인의 구성 요소를 생성하여 코드가 파이프라인의 고유한 측면에 집중할 수 있도록 합니다.

TFX 라이브러리에는 다음이 포함됩니다.

  • TFDV(TensorFlow Data Validation) 는 기계 학습 데이터를 분석하고 검증하기 위한 라이브러리입니다. 확장성이 뛰어나고 TensorFlow 및 TFX와 잘 작동하도록 설계되었습니다. TFDV에는 다음이 포함됩니다.

    • 훈련 및 테스트 데이터의 요약 통계에 대한 확장 가능한 계산.
    • 데이터 분포 및 통계를 위한 뷰어와의 통합은 물론 데이터 세트 쌍(패싯)의 패싯 비교.
    • 필요한 값, 범위 및 어휘와 같은 데이터에 대한 기대치를 설명하는 자동화된 데이터 스키마 생성.
    • 스키마를 검사하는 데 도움이 되는 스키마 뷰어입니다.
    • 몇 가지 예를 들면 누락된 기능, 범위를 벗어난 값 또는 잘못된 기능 유형과 같은 이상을 식별하기 위한 이상 감지.
    • 어떤 기능에 이상이 있는지 확인하고 이를 수정하기 위해 자세히 알아볼 수 있는 이상 뷰어.
  • TensorFlow Transform(TFT) 은 TensorFlow로 데이터를 전처리하기 위한 라이브러리입니다. TensorFlow Transform은 다음과 같이 전체 패스가 필요한 데이터에 유용합니다.

    • 평균 및 표준 편차로 입력 값을 정규화합니다.
    • 모든 입력 값에 대해 어휘를 생성하여 문자열을 정수로 변환합니다.
    • 관찰된 데이터 분포를 기반으로 수레를 버킷에 할당하여 부동 소수점을 정수로 변환합니다.
  • TensorFlow 는 TFX로 모델을 훈련하는 데 사용됩니다. 훈련 데이터와 모델링 코드를 수집하고 SavedModel 결과를 생성합니다. 또한 입력 데이터를 사전 처리하기 위해 TensorFlow Transform에서 생성한 기능 엔지니어링 파이프라인을 통합합니다.

    KerasTuner 는 모델의 하이퍼파라미터를 조정하는 데 사용됩니다.

  • TensorFlow Model Analysis(TFMA) 는 TensorFlow 모델을 평가하기 위한 라이브러리입니다. TensorFlow와 함께 EvalSavedModel을 생성하는 데 사용되며, 이는 분석의 기초가 됩니다. 이를 통해 사용자는 트레이너에 정의된 동일한 메트릭을 사용하여 대량의 데이터에 대한 모델을 분산 방식으로 평가할 수 있습니다. 이러한 메트릭은 다양한 데이터 조각에 대해 계산하고 Jupyter 노트북에서 시각화할 수 있습니다.

  • TensorFlow Metadata(TFMD) 는 TensorFlow로 기계 학습 모델을 훈련할 때 유용한 메타데이터에 대한 표준 표현을 제공합니다. 메타데이터는 입력 데이터 분석 중에 수동으로 생성하거나 자동으로 생성할 수 있으며 데이터 유효성 검사, 탐색 및 변환에 사용할 수 있습니다. 메타데이터 직렬화 형식은 다음과 같습니다.

    • 테이블 형식 데이터를 설명하는 스키마(예: tf.Examples).
    • 이러한 데이터세트에 대한 요약 통계 모음입니다.
  • ML 메타데이터(MLMD) 는 ML 개발자 및 데이터 과학자 워크플로와 관련된 메타데이터를 기록하고 검색하기 위한 라이브러리입니다. 대부분 메타데이터는 TFMD 표현을 사용합니다. MLMD는 SQL-Lite , MySQL 및 기타 유사한 데이터 저장소를 사용하여 지속성을 관리합니다.

지원 기술

필수의

  • Apache Beam 은 일괄 및 스트리밍 데이터 병렬 처리 파이프라인을 모두 정의하기 위한 오픈 소스 통합 모델입니다. TFX는 Apache Beam을 사용하여 데이터 병렬 파이프라인을 구현합니다. 그런 다음 파이프라인은 Apache Flink, Apache Spark, Google Cloud Dataflow 등을 포함하여 Beam이 지원하는 분산 처리 백엔드 중 하나에서 실행됩니다.

선택 과목

Apache Airflow 및 Kubeflow와 같은 오케스트레이터를 사용하면 ML 파이프라인을 더 쉽게 구성, 운영, 모니터링 및 유지 관리할 수 있습니다.

  • Apache Airflow 는 프로그래밍 방식으로 워크플로를 작성, 예약 및 모니터링하는 플랫폼입니다. TFX는 Airflow를 사용하여 작업의 DAG(방향성 비순환 그래프)로 워크플로를 작성합니다. Airflow 스케줄러는 지정된 종속성을 따르는 동안 작업자 배열에서 작업을 실행합니다. 풍부한 명령줄 유틸리티를 사용하면 DAG에서 복잡한 수술을 간편하게 수행할 수 있습니다. 풍부한 사용자 인터페이스를 통해 프로덕션에서 실행 중인 파이프라인을 쉽게 시각화하고 진행 상황을 모니터링하며 필요할 때 문제를 해결할 수 있습니다. 워크플로가 코드로 정의되면 유지 관리, 버전 관리, 테스트 및 협업이 더욱 쉬워집니다.

  • Kubeflow 는 Kubernetes에서 기계 학습(ML) 워크플로를 간단하고 이식 가능하며 확장 가능하게 배포하는 데 전념합니다. Kubeflow의 목표는 다른 서비스를 다시 만드는 것이 아니라 ML을 위한 동급 최고의 오픈 소스 시스템을 다양한 인프라에 배포하는 간단한 방법을 제공하는 것입니다. Kubeflow Pipelines 를 사용하면 실험 및 노트북 기반 경험과 통합된 Kubeflow에서 재현 가능한 워크플로를 구성하고 실행할 수 있습니다. Kubernetes의 Kubeflow Pipelines 서비스에는 호스팅된 메타데이터 저장소, 컨테이너 기반 오케스트레이션 엔진, 노트북 서버 및 UI가 포함되어 있어 사용자가 복잡한 ML 파이프라인을 대규모로 개발, 실행 및 관리할 수 있습니다. Kubeflow Pipelines SDK를 사용하면 프로그래밍 방식으로 구성 요소 및 파이프라인 구성을 생성 및 공유할 수 있습니다.

이식성 및 상호 운용성

TFX는 Apache Airflow , Apache BeamKubeflow 를 비롯한 여러 환경 및 오케스트레이션 프레임워크에 이식할 수 있도록 설계되었습니다. 또한 온프레미스를 비롯한 다양한 컴퓨팅 플랫폼과 Google Cloud Platform(GCP) 과 같은 클라우드 플랫폼으로 이식할 수 있습니다. 특히 TFX는 Cloud AI Platform for Training and PredictionCloud Dataflow 와 같은 서버 관리형 GCP 서비스와 상호 운용되어 ML 수명 주기의 여러 측면에 대한 분산 데이터 처리를 지원합니다.

모델 대 저장된 모델

모델

모델은 훈련 과정의 결과물입니다. 훈련 과정에서 학습된 가중치의 직렬화된 기록입니다. 이러한 가중치는 이후에 새로운 입력 예제에 대한 예측을 계산하는 데 사용할 수 있습니다. TFX 및 TensorFlow의 경우 '모델'은 해당 지점까지 학습된 가중치를 포함하는 체크포인트를 나타냅니다.

'모델'은 예측이 계산되는 방법을 나타내는 TensorFlow 계산 그래프(예: Python 파일)의 정의를 참조할 수도 있습니다. 두 가지 의미는 문맥에 따라 혼용될 수 있습니다.

저장된 모델

  • 저장된 모델이란 : TensorFlow 모델의 보편적이고 언어 중립적이며 밀폐되고 복구 가능한 직렬화입니다.
  • 중요한 이유 : 상위 수준 시스템에서 단일 추상화를 사용하여 TensorFlow 모델을 생성, 변환 및 사용할 수 있도록 합니다.

SavedModel은 프로덕션 환경에서 TensorFlow 모델을 제공하거나 네이티브 모바일 또는 JavaScript 애플리케이션용으로 훈련된 모델을 내보내는 데 권장되는 직렬화 형식입니다. 예를 들어 모델을 예측을 위한 REST 서비스로 전환하려면 모델을 저장된 모델로 직렬화하고 TensorFlow Serving을 사용하여 제공할 수 있습니다. 자세한 내용 은 TensorFlow 모델 제공을 참조하세요.

개요

일부 TFX 구성 요소는 스키마 라는 입력 데이터에 대한 설명을 사용합니다. 스키마는 schema.proto 의 인스턴스입니다. 스키마는 프로토콜 버퍼 의 일종으로, 일반적으로 "protobuf"로 알려져 있습니다. 스키마는 특성 값에 대한 데이터 유형, 특성이 모든 예에 있어야 하는지 여부, 허용되는 값 범위 및 기타 속성을 지정할 수 있습니다. TFDV(TensorFlow Data Validation) 사용의 이점 중 하나는 훈련 데이터에서 유형, 범주 및 범위를 추론하여 스키마를 자동으로 생성한다는 것입니다.

다음은 스키마 protobuf에서 발췌한 내용입니다.

...
feature {
  name: "age"
  value_count {
    min: 1
    max: 1
  }
  type: FLOAT
  presence {
    min_fraction: 1
    min_count: 1
  }
}
feature {
  name: "capital-gain"
  value_count {
    min: 1
    max: 1
  }
  type: FLOAT
  presence {
    min_fraction: 1
    min_count: 1
  }
}
...

다음 구성 요소는 스키마를 사용합니다.

  • TensorFlow 데이터 검증
  • 텐서플로우 변환

일반적인 TFX 파이프라인에서 TensorFlow 데이터 유효성 검사는 다른 구성 요소에서 사용하는 스키마를 생성합니다.

TFX로 개발

TFX는 로컬 머신에 대한 연구, 실험 및 개발에서 배포에 이르기까지 머신 러닝 프로젝트의 모든 단계에 강력한 플랫폼을 제공합니다. 코드 중복을 피하고 교육/서빙 스큐 가능성을 제거하려면 모델 교육 및 교육된 모델 배포 모두에 대해 TFX 파이프라인을 구현하고 교육 및 추론 모두에 TensorFlow Transform 라이브러리를 활용하는 Transform 구성 요소를 사용하는 것이 좋습니다. 이렇게 하면 동일한 전처리 및 분석 코드를 일관되게 사용하고, 훈련에 사용되는 데이터와 프로덕션에서 훈련된 모델에 공급되는 데이터 간의 차이를 피할 수 있을 뿐만 아니라 해당 코드를 한 번 작성함으로써 이점을 얻을 수 있습니다.

데이터 탐색, 시각화 및 정리

데이터 탐색, 시각화 및 정리

TFX 파이프라인은 일반적으로 입력 데이터를 수락하고 tf.Examples로 형식을 지정하는 ExampleGen 구성 요소로 시작합니다. 종종 이는 데이터가 훈련 및 평가 데이터 세트로 분할된 후에 수행되어 실제로 각각 훈련 및 평가용으로 각각 하나씩 두 개의 ExampleGen 구성 요소 복사본이 있습니다. 이는 일반적으로 StatisticsGen 구성 요소와 SchemaGen 구성 요소가 뒤따르며, 이 구성 요소는 데이터를 검사하고 데이터 스키마 및 통계를 유추합니다. 스키마 및 통계는 데이터에서 이상, 누락된 값 및 잘못된 데이터 유형을 찾는 ExampleValidator 구성 요소에서 사용됩니다. 이러한 모든 구성 요소는 TensorFlow Data Validation 라이브러리의 기능을 활용합니다.

TFDV(TensorFlow Data Validation) 는 데이터세트의 초기 탐색, 시각화 및 정리를 수행할 때 유용한 도구입니다. TFDV는 데이터를 검사하고 데이터 유형, 범주 및 범위를 유추한 다음 자동으로 변칙 및 누락된 값을 식별하는 데 도움을 줍니다. 또한 데이터 세트를 검사하고 이해하는 데 도움이 되는 시각화 도구를 제공합니다. 파이프라인이 완료되면 MLMD에서 메타데이터를 읽고 Jupyter 노트북에서 TFDV 의 시각화 도구를 사용하여 데이터를 분석할 수 있습니다.

초기 모델 교육 및 배포 후 TFDV를 사용하여 추론 요청에서 배포된 모델까지의 새 데이터를 모니터링하고 이상 및/또는 드리프트를 찾을 수 있습니다. 이는 추세 또는 계절성의 결과로 시간이 지남에 따라 변경되는 시계열 데이터에 특히 유용하며 데이터 문제가 있거나 새 데이터에 대해 모델을 다시 학습해야 하는 시기를 알리는 데 도움이 될 수 있습니다.

데이터 시각화

TFDV(일반적으로 StatisticsGen, SchemaGen 및 ExampleValidator)를 사용하는 파이프라인 섹션을 통해 데이터의 첫 번째 실행을 완료한 후 Jupyter 스타일 노트북에서 결과를 시각화할 수 있습니다. 추가 실행의 경우 데이터가 모델 및 응용 프로그램에 최적화될 때까지 조정하면서 이러한 결과를 비교할 수 있습니다.

먼저 MLMD(ML 메타데이터) 를 쿼리하여 이러한 구성 요소의 이러한 실행 결과를 찾은 다음 TFDV의 시각화 지원 API를 사용하여 노트북에서 시각화를 생성합니다. 여기에는 tfdv.load_statistics()tfdv.visualize_statistics( )가 포함됩니다. 이 시각화를 사용하면 데이터 세트의 특성을 더 잘 이해할 수 있고 필요한 경우 수정합니다.

모델 개발 및 교육

피처 엔지니어링

일반적인 TFX 파이프라인에는 TensorFlow Transform(TFT) 라이브러리의 기능을 활용하여 기능 엔지니어링을 수행하는 Transform 구성 요소가 포함됩니다. Transform 구성 요소는 SchemaGen 구성 요소에 의해 생성된 스키마를 사용하고 데이터 변환 을 적용하여 모델을 훈련하는 데 사용할 기능을 생성, 결합 및 변환합니다. 유추 요청을 위해 전송된 데이터에도 존재할 가능성이 있는 경우 누락된 값 정리 및 유형 변환도 변환 구성 요소에서 수행해야 합니다. TFX에서 훈련하기 위한 TensorFlow 코드를 설계할 때 몇 가지 중요한 고려 사항이 있습니다 .

모델링 및 교육

Transform 구성 요소의 결과는 Trainer 구성 요소 중에 TensorFlow의 모델링 코드에서 가져와 사용되는 SavedModel입니다. 이 저장된 모델에는 Transform 구성 요소에서 생성된 모든 데이터 엔지니어링 변환이 포함되어 있으므로 훈련 및 추론 중에 정확히 동일한 코드를 사용하여 동일한 변환이 수행됩니다. Transform 구성 요소의 SavedModel을 포함한 모델링 코드를 사용하여 교육 및 평가 데이터를 사용하고 모델을 교육할 수 있습니다.

Estimator 기반 모델로 작업할 때 모델링 코드의 마지막 섹션은 모델을 SavedModel 및 EvalSavedModel로 저장해야 합니다. EvalSavedModel로 저장하면 교육 시간에 사용된 메트릭을 평가 중에도 사용할 수 있습니다(keras 기반 모델에는 필요하지 않음). EvalSavedModel을 저장하려면 Trainer 구성 요소에서 TensorFlow Model Analysis(TFMA) 라이브러리를 가져와야 합니다.

import tensorflow_model_analysis as tfma
...

tfma.export.export_eval_savedmodel(
        estimator=estimator,
        export_dir_base=eval_model_dir,
        eval_input_receiver_fn=receiver_fn)

모델의 하이퍼파라미터(예: 레이어 수)를 조정하기 위해 선택 사항인 Tuner 구성 요소를 Trainer 전에 추가할 수 있습니다. 주어진 모델과 하이퍼파라미터의 검색 공간을 통해 튜닝 알고리즘은 목적에 따라 최적의 하이퍼파라미터를 찾습니다.

모델 성능 분석 및 이해

모델 분석

초기 모델 개발 및 교육 후에는 모델의 성능을 분석하고 실제로 이해하는 것이 중요합니다. 일반적인 TFX 파이프라인에는 이 개발 단계를 위한 강력한 도구 세트를 제공하는 TensorFlow Model Analysis(TFMA) 라이브러리의 기능을 활용하는 Evaluator 구성 요소가 포함됩니다. Evaluator 구성 요소는 위에서 내보낸 모델을 사용하며 모델의 성능을 시각화하고 분석할 때 사용할 수 있는 tfma.SlicingSpec 목록을 지정할 수 있습니다. 각 SlicingSpec 은 범주형 기능의 특정 범주 또는 숫자 기능의 특정 범위와 같이 검사하려는 훈련 데이터의 조각을 정의합니다.

예를 들어, 이는 연간 구매, 지리적 데이터, 연령 그룹 또는 성별로 분류될 수 있는 다양한 고객 세그먼트에 대한 모델의 성능을 이해하려는 데 중요합니다. 이것은 지배적인 그룹의 성능이 중요하지만 더 작은 그룹에 대해 허용할 수 없는 성능을 가릴 수 있는 긴 꼬리가 있는 데이터 세트에 특히 중요할 수 있습니다. 예를 들어, 귀하의 모델이 일반 직원에게는 잘 수행되지만 경영진에게는 비참하게 실패할 수 있으며, 이를 아는 것이 중요할 수 있습니다.

모델 분석 및 시각화

모델 교육을 통해 데이터의 첫 번째 실행을 완료하고 교육 결과에서 Evaluator 구성 요소( TFMA 활용)를 실행하면 Jupyter 스타일 노트북에서 결과를 시각화할 수 있습니다. 추가 실행의 경우 결과가 모델 및 응용 프로그램에 최적화될 때까지 조정하면서 이러한 결과를 비교할 수 있습니다.

먼저 ML 메타데이터(MLMD) 를 쿼리하여 이러한 구성 요소의 이러한 실행 결과를 찾은 다음 TFMA의 시각화 지원 API를 사용하여 노트북에서 시각화를 생성합니다. 여기에는 tfma.load_eval_resultstfma.view.render_slicing_metrics 가 포함됩니다. 이 시각화를 사용하면 모델의 특성을 더 잘 이해할 수 있으며 필요한 경우 필요에 따라 수정할 수 있습니다.

모델 성능 검증

모델 성능 분석의 일부로 기준(예: 현재 제공 중인 모델)에 대해 성능을 검증할 수 있습니다. 모델 유효성 검사는 후보 모델과 기준 모델을 모두 Evaluator 구성 요소에 전달하여 수행됩니다. Evaluator는 해당하는 diff 메트릭 세트와 함께 후보 및 기준선 모두에 대한 메트릭(예: AUC, 손실)을 계산합니다. 그런 다음 임계값을 적용하여 모델을 프로덕션으로 푸시하는 데 사용할 수 있습니다.

모델을 제공할 수 있는지 확인

인프라 검증

훈련된 모델을 배포하기 전에 모델이 제공 인프라에서 실제로 제공 가능한지 여부를 검증할 수 있습니다. 이는 새로 게시된 모델이 시스템에서 예측을 제공하는 것을 방해하지 않도록 하기 위해 프로덕션 환경에서 특히 중요합니다. InfraValidator 구성 요소는 샌드박스 환경에서 모델의 카나리아 배포를 만들고 선택적으로 실제 요청을 보내 모델이 올바르게 작동하는지 확인합니다.

배포 대상

만족스러운 모델을 개발하고 교육했으면 이제 추론 요청을 수신할 하나 이상의 배포 대상에 배포할 차례입니다. TFX는 세 가지 배포 대상 클래스에 대한 배포를 지원합니다. 저장된 모델로 내보낸 훈련된 모델은 이러한 배포 대상 중 일부 또는 전체에 배포할 수 있습니다.

구성 요소 흐름

추론: TensorFlow 제공

TensorFlow Serving(TFS) 은 프로덕션 환경을 위해 설계된 기계 학습 모델을 위한 유연한 고성능 제공 시스템입니다. SavedModel을 사용하고 REST 또는 gRPC 인터페이스를 통한 추론 요청을 수락합니다. 동기화 및 분산 계산을 처리하기 위해 여러 고급 아키텍처 중 하나를 사용하여 하나 이상의 네트워크 서버에서 일련의 프로세스로 실행됩니다. TFS 솔루션 개발 및 배포에 대한 자세한 내용은 TFS 설명서 를 참조하십시오.

일반적인 파이프라인에서 Trainer 구성 요소에서 훈련된 SavedModel은 먼저 InfraValidator 구성 요소에서 인프라 검증됩니다. InfraValidator는 실제로 저장된 모델을 제공하기 위해 카나리아 TFS 모델 서버를 시작합니다. 유효성 검사가 통과되면 Pusher 구성 요소는 마침내 SavedModel을 TFS 인프라에 배포합니다. 여기에는 여러 버전 및 모델 업데이트 처리가 포함됩니다.

네이티브 모바일 및 IoT 애플리케이션의 추론: TensorFlow Lite

TensorFlow Lite 는 개발자가 기본 모바일 및 IoT 애플리케이션에서 훈련된 TensorFlow 모델을 사용할 수 있도록 돕는 전용 도구 모음입니다. TensorFlow Serving과 동일한 저장된 모델을 사용하고 양자화 및 가지치기와 같은 최적화를 적용하여 모바일 및 IoT 장치에서 실행하는 문제에 대해 결과 모델의 크기와 성능을 최적화합니다. TensorFlow Lite 사용에 대한 자세한 내용은 TensorFlow Lite 설명서를 참조하세요.

JavaScript의 추론: TensorFlow JS

TensorFlow JS 는 브라우저와 Node.js에서 ML 모델을 교육하고 배포하기 위한 JavaScript 라이브러리입니다. TensorFlow Serving 및 TensorFlow Lite와 동일한 SavedModel을 사용하고 TensorFlow.js 웹 형식으로 변환합니다. TensorFlow JS 사용에 대한 자세한 내용은 TensorFlow JS 문서를 참조하세요.

Airflow로 TFX 파이프라인 만들기

자세한 내용은 기류 워크샵 을 확인하십시오.

Kubeflow로 TFX 파이프라인 만들기

설정

Kubeflow는 파이프라인을 대규모로 실행하기 위해 Kubernetes 클러스터가 필요합니다. Kubeflow 클러스터 배포 옵션을 안내하는 Kubeflow 배포 지침을 참조하세요.

TFX 파이프라인 구성 및 실행

TFX on Cloud AI Platform Pipeline 가이드 를 따라 Kubeflow에서 TFX 예시 파이프라인을 실행하세요. TFX 구성 요소는 Kubeflow 파이프라인을 구성하기 위해 컨테이너화되었으며 샘플은 대규모 공개 데이터 세트를 읽고 클라우드에서 대규모로 교육 및 데이터 처리 단계를 실행하도록 파이프라인을 구성하는 기능을 보여줍니다.

파이프라인 작업을 위한 명령줄 인터페이스

TFX는 Apache Airflow, Apache Beam 및 Kubeflow를 포함한 다양한 오케스트레이터에서 파이프라인 생성, 업데이트, 실행, 나열 및 삭제와 같은 전체 파이프라인 작업을 수행하는 데 도움이 되는 통합 CLI를 제공합니다. 자세한 내용은 다음 지침 을 따르십시오.