텐서플로우:: 작전:: 동적파티션
#include <data_flow_ops.h>
partitions
의 인덱스를 사용하여 data
num_partitions
개의 텐서로 분할합니다.
요약
partitions.ndim
크기의 각 인덱스 튜플 js
에 대해 슬라이스 data[js, ...]
outputs[partitions[js]]
의 일부가 됩니다. partitions[js] = i
인 슬라이스는 js
의 사전순으로 outputs[i]
에 배치되고, outputs[i]
의 첫 번째 차원은 i
와 동일한 partitions
의 항목 수입니다. 상세히,
outputs[i].shape = [sum(partitions == i)] + data.shape[partitions.ndim:]
outputs[i] = pack([data[js, ...] for js if partitions[js] == i])
data.shape
partitions.shape
로 시작해야 합니다.
예를 들어:
# Scalar partitions. partitions = 1 num_partitions = 2 data = [10, 20] outputs[0] = [] # Empty with shape [0, 2] outputs[1] = [[10, 20]]
# Vector partitions. partitions = [0, 0, 1, 1, 0] num_partitions = 2 data = [10, 20, 30, 40, 50] outputs[0] = [10, 20, 50] outputs[1] = [30, 40]
파티션을 다시 병합하는 방법에 대한 예는 dynamic_stitch
참조하세요.
인수:
보고:
-
OutputList
: 출력 텐서.
생성자와 소멸자 | |
---|---|
DynamicPartition (const :: tensorflow::Scope & scope, :: tensorflow::Input data, :: tensorflow::Input partitions, int64 num_partitions) |
공개 속성 | |
---|---|
operation | |
outputs |
공공 기능 | |
---|---|
operator[] (size_t index) const |
공개 속성
작업
Operation operation
출력
::tensorflow::OutputList outputs
공공 기능
동적파티션
DynamicPartition( const ::tensorflow::Scope & scope, ::tensorflow::Input data, ::tensorflow::Input partitions, int64 num_partitions )
연산자[]
::tensorflow::Output operator[]( size_t index ) const