Sử dụng bộ sưu tập để sắp xếp ngăn nắp các trang
Lưu và phân loại nội dung dựa trên lựa chọn ưu tiên của bạn.
#include <nn_ops.h>
Tính toán độ dốc tích chập đối với đầu vào.
Bản tóm tắt
Lập luận:
- phạm vi: Một đối tượng Phạm vi
- input_sizes: Một vectơ số nguyên biểu thị hình dạng của
input
, trong đó input
là một tensor 4-D [batch, height, width, channels]
. - bộ lọc: 4-D có hình dạng
[filter_height, filter_width, in_channels, out_channels]
. - out_backprop: 4-D với hình dạng
[batch, out_height, out_width, out_channels]
. Gradien ghi kết quả đầu ra của tích chập. - bước tiến: Bước tiến của cửa sổ trượt cho từng chiều của đầu vào của tích chập. Phải theo cùng thứ tự với kích thước được chỉ định bằng định dạng.
- phần đệm: Loại thuật toán đệm sẽ sử dụng.
Thuộc tính tùy chọn (xem Attrs
):
- rõ ràng_paddings: Nếu
padding
là "EXPLICIT"
, danh sách số lượng phần đệm rõ ràng. Đối với thứ nguyên thứ i, lượng khoảng đệm được chèn trước và sau thứ nguyên lần lượt là explicit_paddings[2 * i]
và explicit_paddings[2 * i + 1]
. Nếu padding
không phải là "EXPLICIT"
thì explicit_paddings
phải trống. - data_format: Chỉ định định dạng dữ liệu của dữ liệu đầu vào và đầu ra. Với định dạng mặc định "NHWC", dữ liệu được lưu trữ theo thứ tự: [batch, in_height, in_width, in_channels]. Ngoài ra, định dạng có thể là "NCHW", thứ tự lưu trữ dữ liệu là: [batch, in_channels, in_height, in_width].
- độ giãn nở: tensor 1-D có chiều dài 4. Hệ số giãn nở cho từng chiều của
input
. Nếu được đặt thành k > 1, sẽ có k-1 ô bị bỏ qua giữa mỗi phần tử bộ lọc trên thứ nguyên đó. Thứ tự thứ nguyên được xác định bởi giá trị của data_format
, xem chi tiết ở trên. Độ giãn nở của kích thước lô và độ sâu phải bằng 1.
Trả về:
-
Output
: 4-D với hình dạng [batch, in_height, in_width, in_channels]
. gradient ghi đầu vào của tích chập.
Hàm tạo và hàm hủy |
---|
Conv2DBackpropInput (const :: tensorflow::Scope & scope, :: tensorflow::Input input_sizes, :: tensorflow::Input filter, :: tensorflow::Input out_backprop, const gtl::ArraySlice< int > & strides, StringPiece padding)
|
Conv2DBackpropInput (const :: tensorflow::Scope & scope, :: tensorflow::Input input_sizes, :: tensorflow::Input filter, :: tensorflow::Input out_backprop, const gtl::ArraySlice< int > & strides, StringPiece padding, const Conv2DBackpropInput::Attrs & attrs) |
Thuộc tính công khai
Chức năng công cộng
Các hàm tĩnh công khai
Trừ phi có lưu ý khác, nội dung của trang này được cấp phép theo Giấy phép ghi nhận tác giả 4.0 của Creative Commons và các mẫu mã lập trình được cấp phép theo Giấy phép Apache 2.0. Để biết thông tin chi tiết, vui lòng tham khảo Chính sách trang web của Google Developers. Java là nhãn hiệu đã đăng ký của Oracle và/hoặc các đơn vị liên kết với Oracle.
Cập nhật lần gần đây nhất: 2025-07-27 UTC.
[null,null,["Cập nhật lần gần đây nhất: 2025-07-27 UTC."],[],[],null,["# tensorflow::ops::Conv2DBackpropInput Class Reference\n\ntensorflow::ops::Conv2DBackpropInput\n====================================\n\n`#include \u003cnn_ops.h\u003e`\n\nComputes the gradients of convolution with respect to the input.\n\nSummary\n-------\n\nArguments:\n\n- scope: A [Scope](/versions/r2.2/api_docs/cc/class/tensorflow/scope#classtensorflow_1_1_scope) object\n- input_sizes: An integer vector representing the shape of `input`, where `input` is a 4-D `[batch, height, width, channels]` tensor.\n- filter: 4-D with shape `[filter_height, filter_width, in_channels, out_channels]`.\n- out_backprop: 4-D with shape `[batch, out_height, out_width, out_channels]`. Gradients w.r.t. the output of the convolution.\n- strides: The stride of the sliding window for each dimension of the input of the convolution. Must be in the same order as the dimension specified with format.\n- padding: The type of padding algorithm to use.\n\n\u003cbr /\u003e\n\nOptional attributes (see [Attrs](/versions/r2.2/api_docs/cc/struct/tensorflow/ops/conv2-d-backprop-input/attrs#structtensorflow_1_1ops_1_1_conv2_d_backprop_input_1_1_attrs)):\n\n- explicit_paddings: If `padding` is `\"EXPLICIT\"`, the list of explicit padding amounts. For the ith dimension, the amount of padding inserted before and after the dimension is `explicit_paddings[2 * i]` and `explicit_paddings[2 * i + 1]`, respectively. If `padding` is not `\"EXPLICIT\"`, `explicit_paddings` must be empty.\n- data_format: Specify the data format of the input and output data. With the default format \"NHWC\", the data is stored in the order of: \\[batch, in_height, in_width, in_channels\\]. Alternatively, the format could be \"NCHW\", the data storage order of: \\[batch, in_channels, in_height, in_width\\].\n- dilations: 1-D tensor of length 4. The dilation factor for each dimension of `input`. If set to k \\\u003e 1, there will be k-1 skipped cells between each filter element on that dimension. The dimension order is determined by the value of `data_format`, see above for details. Dilations in the batch and depth dimensions must be 1.\n\n\u003cbr /\u003e\n\nReturns:\n\n- [Output](/versions/r2.2/api_docs/cc/class/tensorflow/output#classtensorflow_1_1_output): 4-D with shape `[batch, in_height, in_width, in_channels]`. Gradient w.r.t. the input of the convolution.\n\n\u003cbr /\u003e\n\n| ### Constructors and Destructors ||\n|---|---|\n| [Conv2DBackpropInput](#classtensorflow_1_1ops_1_1_conv2_d_backprop_input_1aa5357992b64dbb43b51d35c084d442d8)`(const ::`[tensorflow::Scope](/versions/r2.2/api_docs/cc/class/tensorflow/scope#classtensorflow_1_1_scope)` & scope, ::`[tensorflow::Input](/versions/r2.2/api_docs/cc/class/tensorflow/input#classtensorflow_1_1_input)` input_sizes, ::`[tensorflow::Input](/versions/r2.2/api_docs/cc/class/tensorflow/input#classtensorflow_1_1_input)` filter, ::`[tensorflow::Input](/versions/r2.2/api_docs/cc/class/tensorflow/input#classtensorflow_1_1_input)` out_backprop, const gtl::ArraySlice\u003c int \u003e & strides, StringPiece padding)` ||\n| [Conv2DBackpropInput](#classtensorflow_1_1ops_1_1_conv2_d_backprop_input_1a01da97aaaf681a4f6f45d3bda57f0f82)`(const ::`[tensorflow::Scope](/versions/r2.2/api_docs/cc/class/tensorflow/scope#classtensorflow_1_1_scope)` & scope, ::`[tensorflow::Input](/versions/r2.2/api_docs/cc/class/tensorflow/input#classtensorflow_1_1_input)` input_sizes, ::`[tensorflow::Input](/versions/r2.2/api_docs/cc/class/tensorflow/input#classtensorflow_1_1_input)` filter, ::`[tensorflow::Input](/versions/r2.2/api_docs/cc/class/tensorflow/input#classtensorflow_1_1_input)` out_backprop, const gtl::ArraySlice\u003c int \u003e & strides, StringPiece padding, const `[Conv2DBackpropInput::Attrs](/versions/r2.2/api_docs/cc/struct/tensorflow/ops/conv2-d-backprop-input/attrs#structtensorflow_1_1ops_1_1_conv2_d_backprop_input_1_1_attrs)` & attrs)` ||\n\n| ### Public attributes ||\n|----------------------------------------------------------------------------------------------------|---------------------------------------------------------------------------------------------------------|\n| [operation](#classtensorflow_1_1ops_1_1_conv2_d_backprop_input_1aebb0f66b81bb602fa8600e2e32f621b2) | [Operation](/versions/r2.2/api_docs/cc/class/tensorflow/operation#classtensorflow_1_1_operation) |\n| [output](#classtensorflow_1_1ops_1_1_conv2_d_backprop_input_1a53bf3bf2eb2af62764981f62c794fbe2) | `::`[tensorflow::Output](/versions/r2.2/api_docs/cc/class/tensorflow/output#classtensorflow_1_1_output) |\n\n| ### Public functions ||\n|----------------------------------------------------------------------------------------------------------------------------------|------------------------|\n| [node](#classtensorflow_1_1ops_1_1_conv2_d_backprop_input_1acf62af3e404315cfe9622e3d1295033b)`() const ` | `::tensorflow::Node *` |\n| [operator::tensorflow::Input](#classtensorflow_1_1ops_1_1_conv2_d_backprop_input_1a94315c7d6148fb6451deb58f91955405)`() const ` | ` ` ` ` |\n| [operator::tensorflow::Output](#classtensorflow_1_1ops_1_1_conv2_d_backprop_input_1a1bced60701935dddacef1af9398879df)`() const ` | ` ` ` ` |\n\n| ### Public static functions ||\n|-----------------------------------------------------------------------------------------------------------------------------------------------|-----------------------------------------------------------------------------------------------------------------------------------------------------|\n| [DataFormat](#classtensorflow_1_1ops_1_1_conv2_d_backprop_input_1ac762988224740afda86e2a852ef11774)`(StringPiece x)` | [Attrs](/versions/r2.2/api_docs/cc/struct/tensorflow/ops/conv2-d-backprop-input/attrs#structtensorflow_1_1ops_1_1_conv2_d_backprop_input_1_1_attrs) |\n| [Dilations](#classtensorflow_1_1ops_1_1_conv2_d_backprop_input_1a01b3b905a6bba3d7c7e61238d45109e4)`(const gtl::ArraySlice\u003c int \u003e & x)` | [Attrs](/versions/r2.2/api_docs/cc/struct/tensorflow/ops/conv2-d-backprop-input/attrs#structtensorflow_1_1ops_1_1_conv2_d_backprop_input_1_1_attrs) |\n| [ExplicitPaddings](#classtensorflow_1_1ops_1_1_conv2_d_backprop_input_1a4f19fe8f8ae4c3b237038489ba58a721)`(const gtl::ArraySlice\u003c int \u003e & x)` | [Attrs](/versions/r2.2/api_docs/cc/struct/tensorflow/ops/conv2-d-backprop-input/attrs#structtensorflow_1_1ops_1_1_conv2_d_backprop_input_1_1_attrs) |\n| [UseCudnnOnGpu](#classtensorflow_1_1ops_1_1_conv2_d_backprop_input_1a6df425d872077ec66d9eb2e2b42f767b)`(bool x)` | [Attrs](/versions/r2.2/api_docs/cc/struct/tensorflow/ops/conv2-d-backprop-input/attrs#structtensorflow_1_1ops_1_1_conv2_d_backprop_input_1_1_attrs) |\n\n| ### Structs ||\n|------------------------------------------------------------------------------------------------------------------------------|---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| [tensorflow::ops::Conv2DBackpropInput::Attrs](/versions/r2.2/api_docs/cc/struct/tensorflow/ops/conv2-d-backprop-input/attrs) | Optional attribute setters for [Conv2DBackpropInput](/versions/r2.2/api_docs/cc/class/tensorflow/ops/conv2-d-backprop-input#classtensorflow_1_1ops_1_1_conv2_d_backprop_input). |\n\nPublic attributes\n-----------------\n\n### operation\n\n```text\nOperation operation\n``` \n\n### output\n\n```text\n::tensorflow::Output output\n``` \n\nPublic functions\n----------------\n\n### Conv2DBackpropInput\n\n```gdscript\n Conv2DBackpropInput(\n const ::tensorflow::Scope & scope,\n ::tensorflow::Input input_sizes,\n ::tensorflow::Input filter,\n ::tensorflow::Input out_backprop,\n const gtl::ArraySlice\u003c int \u003e & strides,\n StringPiece padding\n)\n``` \n\n### Conv2DBackpropInput\n\n```gdscript\n Conv2DBackpropInput(\n const ::tensorflow::Scope & scope,\n ::tensorflow::Input input_sizes,\n ::tensorflow::Input filter,\n ::tensorflow::Input out_backprop,\n const gtl::ArraySlice\u003c int \u003e & strides,\n StringPiece padding,\n const Conv2DBackpropInput::Attrs & attrs\n)\n``` \n\n### node\n\n```gdscript\n::tensorflow::Node * node() const \n``` \n\n### operator::tensorflow::Input\n\n```gdscript\n operator::tensorflow::Input() const \n``` \n\n### operator::tensorflow::Output\n\n```gdscript\n operator::tensorflow::Output() const \n``` \n\nPublic static functions\n-----------------------\n\n### DataFormat\n\n```text\nAttrs DataFormat(\n StringPiece x\n)\n``` \n\n### Dilations\n\n```gdscript\nAttrs Dilations(\n const gtl::ArraySlice\u003c int \u003e & x\n)\n``` \n\n### ExplicitPaddings\n\n```gdscript\nAttrs ExplicitPaddings(\n const gtl::ArraySlice\u003c int \u003e & x\n)\n``` \n\n### UseCudnnOnGpu\n\n```text\nAttrs UseCudnnOnGpu(\n bool x\n)\n```"]]