Batch

lớp cuối cùng công khai hàng loạt

Lô tất cả các tensor đầu vào không xác định.

Khi nhiều phiên bản của Op này đang được chạy đồng thời với cùng một vùng chứa/shared_name trong cùng một thiết bị, một số sẽ xuất ra Tensor có hình dạng 0 và một số khác sẽ xuất ra Tensors có kích thước lên tới max_batch_size.

Tất cả các Tensor trong in_tensor đều được nhóm lại với nhau (vì vậy, ví dụ: các nhãn và tính năng phải được nhóm lại với một phiên bản duy nhất của thao tác này.

Mỗi lệnh gọi lô phát ra một đại lượng `id` sẽ được sử dụng để xác định lệnh gọi cụ thể này khi thực hiện hủy ghép hoặc độ dốc của nó.

Mỗi op phát ra một lô không trống cũng sẽ phát ra một batch_index Tensor không trống, là một ma trận [K, 3] trong đó mỗi hàng chứa id, điểm bắt đầu và độ dài của các phần tử của lệnh gọi có trong mỗi bộ Tensors có trong batched_tensor.

Các tensor theo đợt được nối dọc theo chiều thứ nhất và tất cả các tensor trong in_tensor phải có chiều thứ nhất có cùng kích thước.

in_tensors: Các tensor được phân nhóm. num_batch_threads: Số lượng luồng lập lịch để xử lý các lô công việc. Xác định số lượng lô được xử lý song song. max_batch_size: Kích thước lô sẽ không bao giờ lớn hơn kích thước này. batch_timeout_micros: Số micro giây tối đa phải đợi trước khi xuất ra một lô chưa hoàn chỉnh. allow_batch_sizes: Danh sách tùy chọn kích thước lô được phép. Nếu để trống thì không làm gì cả. Mặt khác, cung cấp danh sách các kích thước lô, khiến op đệm các lô lên đến một trong các kích thước đó. Các mục nhập phải tăng đều đặn và mục nhập cuối cùng phải bằng max_batch_size. grad_timeout_micros: Thời gian chờ sử dụng cho gradient. Xem Hủy lô. batched_tensor: Hoặc là tensor trống hoặc một loạt tensor được nối. batch_index: Nếu out_tensors không trống, có thông tin để đảo ngược nó. container: Kiểm soát phạm vi chia sẻ của lô này. id: luôn chứa một đại lượng vô hướng có ID duy nhất cho lệnh gọi Batch này. Shared_name: Các phiên bản batch đang chạy đồng thời trong cùng một thiết bị có cùng vùng chứa và Shared_name sẽ gộp các phần tử của chúng lại với nhau. Nếu để trống, tên op sẽ được dùng làm tên chia sẻ. T: các loại tensor cần phân cụm.

Các lớp lồng nhau

lớp học Batch.Options Thuộc tính tùy chọn cho Batch

Phương pháp công khai

Batch.Options tĩnh
allowBatchSizes (Danh sách<Long> allowBatchSizes)
Đầu ra <Dài>
Danh sách< Đầu ra <?>>
Batch.Options tĩnh
batchingQueue (Chuỗi batchingQueue)
Batch.Options tĩnh
vùng chứa (Vùng chứa chuỗi)
tĩnh
tạo ( Phạm vi phạm vi, Iterable< Toán hạng <?>> inTensors, Long numBatchThreads, Long maxBatchSize, Long batchTimeoutMicros, Long gradTimeoutMicros, Options... tùy chọn)
Phương thức xuất xưởng để tạo một lớp bao bọc một thao tác Batch mới.
Đầu ra <Dài>
Batch.Options tĩnh
maxEnqueuedBatches (MaxEnqueuedBatches dài)
Batch.Options tĩnh
tên chia sẻ (Chuỗi tên chia sẻ)

Phương pháp kế thừa

Phương pháp công khai

Batch.Options tĩnh công khai được phépBatchSizes (Danh sách <Dài> được phépBatchSizes)

Đầu ra công khai <Dài> batchIndex ()

Danh sách công khai< Đầu ra <?>> batchedTensors ()

public static Batch.Options batchingQueue (Chuỗi batchingQueue)

Bộ chứa Batch.Options tĩnh công khai (Bộ chứa chuỗi)

tạo hàng loạt tĩnh công khai (Phạm vi phạm vi , Iterable< Toán hạng <?>> inTensors, Long numBatchThreads, Long maxBatchSize, Long batchTimeoutMicros, Long gradTimeoutMicros, Tùy chọn... tùy chọn)

Phương thức xuất xưởng để tạo một lớp bao bọc một thao tác Batch mới.

Thông số
phạm vi phạm vi hiện tại
tùy chọn mang các giá trị thuộc tính tùy chọn
Trả lại
  • một phiên bản mới của Batch

Đầu ra công khai <Dài> id ()

Batch tĩnh công khai.Options maxEnqueuedBatches (MaxEnqueuedBatches dài)

public static Batch.Options tên chia sẻ (Chuỗi tên chia sẻ)