コレクションでコンテンツを整理
必要に応じて、コンテンツの保存と分類を行います。
テンソルフロー::作戦::デコードとクロップJpeg
#include <image_ops.h>
JPEG エンコードされたイメージを uint8 テンソルにデコードしてトリミングします。
まとめ
attr channels
デコードされたイメージに必要なカラー チャネルの数を示します。
受け入れられる値は次のとおりです。
- 0: JPEG エンコード画像のチャネル数を使用します。
- 1: グレースケール画像を出力します。
- 3: RGB画像を出力します。
必要に応じて、JPEG エンコードされた画像は、要求されたカラー チャネルの数に一致するように変換されます。
アトリビュートratio
すると、デコード中にイメージを整数倍にダウンスケーリングできます。許可される値は、1、2、4、および 8 です。これは、後で画像をダウンスケールするよりもはるかに高速です。
これはデコードとクロップの組み合わせと同等ですが、部分的な JPEG 画像をデコードするだけではるかに高速になります。
引数:
- スコープ:スコープオブジェクト
- 内容: 0-D。 JPEG エンコードされた画像。
- クロップウィンドウ: 1-D。クロップウィンドウ: [crop_y、crop_x、crop_height、crop_width]。
オプションの属性 ( Attrs
を参照):
- チャネル: デコードされたイメージのカラー チャネルの数。
- 比率: ダウンスケーリング比率。
- fancy_upscaling: true の場合、クロマ プレーンの低速だが優れたアップスケーリングを使用します (yuv420/422 のみ)。
- try_recover_truncated: true の場合、切り詰められた入力から画像を復元しようとします。
- accept_fraction: 切り捨てられた入力が受け入れられる前に必要な最小行数の割合。
- dct_method: 解凍に使用されるアルゴリズムに関するヒントを指定する文字列。デフォルトは「」で、システム固有のデフォルトにマップされます。現在有効な値は ["INTEGER_FAST"、"INTEGER_ACCURATE"] です。ヒントは無視される場合があります (例: 内部 JPEG ライブラリがその特定のオプションを持たないバージョンに変更される)。
戻り値:
-
Output
: 形状[height, width, channels]
を持つ 3-D ..
パブリック属性
公共機能
ノード
::tensorflow::Node * node() const
operator::tensorflow::Input() const
演算子::tensorflow::出力
operator::tensorflow::Output() const
パブリック静的関数
許容可能な分数
Attrs AcceptableFraction(
float x
)
チャンネル
Attrs Channels(
int64 x
)
DctMethod
Attrs DctMethod(
StringPiece x
)
ファンシーアップスケーリング
Attrs FancyUpscaling(
bool x
)
TryRecoverTruncated
Attrs TryRecoverTruncated(
bool x
)
特に記載のない限り、このページのコンテンツはクリエイティブ・コモンズの表示 4.0 ライセンスにより使用許諾されます。コードサンプルは Apache 2.0 ライセンスにより使用許諾されます。詳しくは、Google Developers サイトのポリシーをご覧ください。Java は Oracle および関連会社の登録商標です。
最終更新日 2025-07-26 UTC。
[null,null,["最終更新日 2025-07-26 UTC。"],[],[],null,["# tensorflow::ops::DecodeAndCropJpeg Class Reference\n\ntensorflow::ops::DecodeAndCropJpeg\n==================================\n\n`#include \u003cimage_ops.h\u003e`\n\nDecode and Crop a JPEG-encoded image to a uint8 tensor.\n\nSummary\n-------\n\nThe attr `channels` indicates the desired number of color channels for the decoded image.\n\nAccepted values are:\n\n\n- 0: Use the number of channels in the JPEG-encoded image.\n- 1: output a grayscale image.\n- 3: output an RGB image.\n\n\u003cbr /\u003e\n\nIf needed, the JPEG-encoded image is transformed to match the requested number of color channels.\n\nThe attr `ratio` allows downscaling the image by an integer factor during decoding. Allowed values are: 1, 2, 4, and 8. This is much faster than downscaling the image later.\n\nIt is equivalent to a combination of decode and crop, but much faster by only decoding partial jpeg image.\n\nArguments:\n\n- scope: A [Scope](/versions/r2.2/api_docs/cc/class/tensorflow/scope#classtensorflow_1_1_scope) object\n- contents: 0-D. The JPEG-encoded image.\n- crop_window: 1-D. The crop window: \\[crop_y, crop_x, crop_height, crop_width\\].\n\n\u003cbr /\u003e\n\nOptional attributes (see [Attrs](/versions/r2.2/api_docs/cc/struct/tensorflow/ops/decode-and-crop-jpeg/attrs#structtensorflow_1_1ops_1_1_decode_and_crop_jpeg_1_1_attrs)):\n\n- channels: Number of color channels for the decoded image.\n- ratio: Downscaling ratio.\n- fancy_upscaling: If true use a slower but nicer upscaling of the chroma planes (yuv420/422 only).\n- try_recover_truncated: If true try to recover an image from truncated input.\n- acceptable_fraction: The minimum required fraction of lines before a truncated input is accepted.\n- dct_method: string specifying a hint about the algorithm used for decompression. Defaults to \"\" which maps to a system-specific default. Currently valid values are \\[\"INTEGER_FAST\", \"INTEGER_ACCURATE\"\\]. The hint may be ignored (e.g., the internal jpeg library changes to a version that does not have that specific option.)\n\n\u003cbr /\u003e\n\nReturns:\n\n- [Output](/versions/r2.2/api_docs/cc/class/tensorflow/output#classtensorflow_1_1_output): 3-D with shape `[height, width, channels]`..\n\n\u003cbr /\u003e\n\n| ### Constructors and Destructors ||\n|---|---|\n| [DecodeAndCropJpeg](#classtensorflow_1_1ops_1_1_decode_and_crop_jpeg_1a40f8322a3956b1982d0d78a7452613fc)`(const ::`[tensorflow::Scope](/versions/r2.2/api_docs/cc/class/tensorflow/scope#classtensorflow_1_1_scope)` & scope, ::`[tensorflow::Input](/versions/r2.2/api_docs/cc/class/tensorflow/input#classtensorflow_1_1_input)` contents, ::`[tensorflow::Input](/versions/r2.2/api_docs/cc/class/tensorflow/input#classtensorflow_1_1_input)` crop_window)` ||\n| [DecodeAndCropJpeg](#classtensorflow_1_1ops_1_1_decode_and_crop_jpeg_1a04b3586218bf0c15f49ea73f733b7aa9)`(const ::`[tensorflow::Scope](/versions/r2.2/api_docs/cc/class/tensorflow/scope#classtensorflow_1_1_scope)` & scope, ::`[tensorflow::Input](/versions/r2.2/api_docs/cc/class/tensorflow/input#classtensorflow_1_1_input)` contents, ::`[tensorflow::Input](/versions/r2.2/api_docs/cc/class/tensorflow/input#classtensorflow_1_1_input)` crop_window, const `[DecodeAndCropJpeg::Attrs](/versions/r2.2/api_docs/cc/struct/tensorflow/ops/decode-and-crop-jpeg/attrs#structtensorflow_1_1ops_1_1_decode_and_crop_jpeg_1_1_attrs)` & attrs)` ||\n\n| ### Public attributes ||\n|--------------------------------------------------------------------------------------------------|---------------------------------------------------------------------------------------------------------|\n| [image](#classtensorflow_1_1ops_1_1_decode_and_crop_jpeg_1ac86d4abf1b4381950b01a3d3b7b42033) | `::`[tensorflow::Output](/versions/r2.2/api_docs/cc/class/tensorflow/output#classtensorflow_1_1_output) |\n| [operation](#classtensorflow_1_1ops_1_1_decode_and_crop_jpeg_1a7ca3572e2a7b2f2efbb2dfffca5d6bef) | [Operation](/versions/r2.2/api_docs/cc/class/tensorflow/operation#classtensorflow_1_1_operation) |\n\n| ### Public functions ||\n|--------------------------------------------------------------------------------------------------------------------------------|------------------------|\n| [node](#classtensorflow_1_1ops_1_1_decode_and_crop_jpeg_1ab81a0fc51718ab73147ccc00f8a859fe)`() const ` | `::tensorflow::Node *` |\n| [operator::tensorflow::Input](#classtensorflow_1_1ops_1_1_decode_and_crop_jpeg_1a4bd46410ee7c7deb85a864042934ac25)`() const ` | ` ` ` ` |\n| [operator::tensorflow::Output](#classtensorflow_1_1ops_1_1_decode_and_crop_jpeg_1a6676c18a287c62f936e7bc369b687625)`() const ` | ` ` ` ` |\n\n| ### Public static functions ||\n|----------------------------------------------------------------------------------------------------------------------|-------------------------------------------------------------------------------------------------------------------------------------------------|\n| [AcceptableFraction](#classtensorflow_1_1ops_1_1_decode_and_crop_jpeg_1a03aa63bbe5a02cfb5735272956cfe14a)`(float x)` | [Attrs](/versions/r2.2/api_docs/cc/struct/tensorflow/ops/decode-and-crop-jpeg/attrs#structtensorflow_1_1ops_1_1_decode_and_crop_jpeg_1_1_attrs) |\n| [Channels](#classtensorflow_1_1ops_1_1_decode_and_crop_jpeg_1aafeb21d91856f8799a33028b25ed30f5)`(int64 x)` | [Attrs](/versions/r2.2/api_docs/cc/struct/tensorflow/ops/decode-and-crop-jpeg/attrs#structtensorflow_1_1ops_1_1_decode_and_crop_jpeg_1_1_attrs) |\n| [DctMethod](#classtensorflow_1_1ops_1_1_decode_and_crop_jpeg_1a5aad56954952a3823b7446d5db735018)`(StringPiece x)` | [Attrs](/versions/r2.2/api_docs/cc/struct/tensorflow/ops/decode-and-crop-jpeg/attrs#structtensorflow_1_1ops_1_1_decode_and_crop_jpeg_1_1_attrs) |\n| [FancyUpscaling](#classtensorflow_1_1ops_1_1_decode_and_crop_jpeg_1ab270c3550997fa6825093eb3e76de49d)`(bool x)` | [Attrs](/versions/r2.2/api_docs/cc/struct/tensorflow/ops/decode-and-crop-jpeg/attrs#structtensorflow_1_1ops_1_1_decode_and_crop_jpeg_1_1_attrs) |\n| [Ratio](#classtensorflow_1_1ops_1_1_decode_and_crop_jpeg_1ab5ff568c17de19ad85cd4e78585603ce)`(int64 x)` | [Attrs](/versions/r2.2/api_docs/cc/struct/tensorflow/ops/decode-and-crop-jpeg/attrs#structtensorflow_1_1ops_1_1_decode_and_crop_jpeg_1_1_attrs) |\n| [TryRecoverTruncated](#classtensorflow_1_1ops_1_1_decode_and_crop_jpeg_1adb9221ee465f54e8ee30ea452d2bf2b9)`(bool x)` | [Attrs](/versions/r2.2/api_docs/cc/struct/tensorflow/ops/decode-and-crop-jpeg/attrs#structtensorflow_1_1ops_1_1_decode_and_crop_jpeg_1_1_attrs) |\n\n| ### Structs ||\n|--------------------------------------------------------------------------------------------------------------------------|---------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| [tensorflow::ops::DecodeAndCropJpeg::Attrs](/versions/r2.2/api_docs/cc/struct/tensorflow/ops/decode-and-crop-jpeg/attrs) | Optional attribute setters for [DecodeAndCropJpeg](/versions/r2.2/api_docs/cc/class/tensorflow/ops/decode-and-crop-jpeg#classtensorflow_1_1ops_1_1_decode_and_crop_jpeg). |\n\nPublic attributes\n-----------------\n\n### image\n\n```text\n::tensorflow::Output image\n``` \n\n### operation\n\n```text\nOperation operation\n``` \n\nPublic functions\n----------------\n\n### DecodeAndCropJpeg\n\n```gdscript\n DecodeAndCropJpeg(\n const ::tensorflow::Scope & scope,\n ::tensorflow::Input contents,\n ::tensorflow::Input crop_window\n)\n``` \n\n### DecodeAndCropJpeg\n\n```gdscript\n DecodeAndCropJpeg(\n const ::tensorflow::Scope & scope,\n ::tensorflow::Input contents,\n ::tensorflow::Input crop_window,\n const DecodeAndCropJpeg::Attrs & attrs\n)\n``` \n\n### node\n\n```gdscript\n::tensorflow::Node * node() const \n``` \n\n### operator::tensorflow::Input\n\n```gdscript\n operator::tensorflow::Input() const \n``` \n\n### operator::tensorflow::Output\n\n```gdscript\n operator::tensorflow::Output() const \n``` \n\nPublic static functions\n-----------------------\n\n### AcceptableFraction\n\n```text\nAttrs AcceptableFraction(\n float x\n)\n``` \n\n### Channels\n\n```text\nAttrs Channels(\n int64 x\n)\n``` \n\n### DctMethod\n\n```text\nAttrs DctMethod(\n StringPiece x\n)\n``` \n\n### FancyUpscaling\n\n```text\nAttrs FancyUpscaling(\n bool x\n)\n``` \n\n### Ratio\n\n```text\nAttrs Ratio(\n int64 x\n)\n``` \n\n### TryRecoverTruncated\n\n```text\nAttrs TryRecoverTruncated(\n bool x\n)\n```"]]