wide_face
コレクションでコンテンツを整理
必要に応じて、コンテンツの保存と分類を行います。
WIDER FACE データセットは、公開されている WIDER データセットから画像を選択した顔検出ベンチマーク データセットです。サンプル画像に示されているように、32,203 枚の画像を選択し、393,703 枚の顔にラベルを付けます。 WIDER FACE データセットは、61 のイベント クラスに基づいて編成されています。イベント クラスごとに、40%/10%/50% のデータをトレーニング、検証、およびテスト セットとしてランダムに選択します。 PASCAL VOC データセットで採用されているものと同じ評価指標を採用しています。 MALF および Caltech データセットと同様に、テスト画像のバウンディング ボックスのグラウンド トゥルースは公開しません。ユーザーは、最終的な予測ファイルを提出する必要があり、評価を進めます。
スプリット | 例 |
---|
'test' | 16,097 |
'train' | 12,880 |
'validation' | 3,226 |
FeaturesDict({
'faces': Sequence({
'bbox': BBoxFeature(shape=(4,), dtype=float32),
'blur': uint8,
'expression': bool,
'illumination': bool,
'invalid': bool,
'occlusion': uint8,
'pose': bool,
}),
'image': Image(shape=(None, None, 3), dtype=uint8),
'image/filename': Text(shape=(), dtype=string),
})
特徴 | クラス | 形 | Dtype | 説明 |
---|
| 特徴辞書 | | | |
顔 | 順序 | | | |
顔/bbox | BBoxFeature | (4) | float32 | |
顔/ぼかし | テンソル | | uint8 | |
顔・表情 | テンソル | | ブール | |
顔/イルミネーション | テンソル | | ブール | |
顔/無効 | テンソル | | ブール | |
フェース/オクルージョン | テンソル | | uint8 | |
顔・ポーズ | テンソル | | ブール | |
画像 | 画像 | (なし、なし、3) | uint8 | |
画像/ファイル名 | 文章 | | ストリング | |

@inproceedings{yang2016wider,
Author = {Yang, Shuo and Luo, Ping and Loy, Chen Change and Tang, Xiaoou},
Booktitle = {IEEE Conference on Computer Vision and Pattern Recognition (CVPR)},
Title = {WIDER FACE: A Face Detection Benchmark},
Year = {2016} }
特に記載のない限り、このページのコンテンツはクリエイティブ・コモンズの表示 4.0 ライセンスにより使用許諾されます。コードサンプルは Apache 2.0 ライセンスにより使用許諾されます。詳しくは、Google Developers サイトのポリシーをご覧ください。Java は Oracle および関連会社の登録商標です。
最終更新日 2022-12-06 UTC。
[null,null,["最終更新日 2022-12-06 UTC。"],[],[],null,["# wider_face\n\n\u003cbr /\u003e\n\n- **Description**:\n\nWIDER FACE dataset is a face detection benchmark dataset, of which images are\nselected from the publicly available WIDER dataset. We choose 32,203 images and\nlabel 393,703 faces with a high degree of variability in scale, pose and\nocclusion as depicted in the sample images. WIDER FACE dataset is organized\nbased on 61 event classes. For each event class, we randomly select 40%/10%/50%\ndata as training, validation and testing sets. We adopt the same evaluation\nmetric employed in the PASCAL VOC dataset. Similar to MALF and Caltech datasets,\nwe do not release bounding box ground truth for the test images. Users are\nrequired to submit final prediction files, which we shall proceed to evaluate.\n\n- **Homepage** :\n \u003chttp://shuoyang1213.me/WIDERFACE/\u003e\n\n- **Source code** :\n [`tfds.object_detection.WiderFace`](https://github.com/tensorflow/datasets/tree/master/tensorflow_datasets/object_detection/wider_face.py)\n\n- **Versions**:\n\n - **`0.1.0`** (default): No release notes.\n- **Download size** : `3.42 GiB`\n\n- **Dataset size** : `3.45 GiB`\n\n- **Auto-cached**\n ([documentation](https://www.tensorflow.org/datasets/performances#auto-caching)):\n No\n\n- **Splits**:\n\n| Split | Examples |\n|----------------|----------|\n| `'test'` | 16,097 |\n| `'train'` | 12,880 |\n| `'validation'` | 3,226 |\n\n- **Feature structure**:\n\n FeaturesDict({\n 'faces': Sequence({\n 'bbox': BBoxFeature(shape=(4,), dtype=float32),\n 'blur': uint8,\n 'expression': bool,\n 'illumination': bool,\n 'invalid': bool,\n 'occlusion': uint8,\n 'pose': bool,\n }),\n 'image': Image(shape=(None, None, 3), dtype=uint8),\n 'image/filename': Text(shape=(), dtype=string),\n })\n\n- **Feature documentation**:\n\n| Feature | Class | Shape | Dtype | Description |\n|--------------------|--------------|-----------------|---------|-------------|\n| | FeaturesDict | | | |\n| faces | Sequence | | | |\n| faces/bbox | BBoxFeature | (4,) | float32 | |\n| faces/blur | Tensor | | uint8 | |\n| faces/expression | Tensor | | bool | |\n| faces/illumination | Tensor | | bool | |\n| faces/invalid | Tensor | | bool | |\n| faces/occlusion | Tensor | | uint8 | |\n| faces/pose | Tensor | | bool | |\n| image | Image | (None, None, 3) | uint8 | |\n| image/filename | Text | | string | |\n\n- **Supervised keys** (See\n [`as_supervised` doc](https://www.tensorflow.org/datasets/api_docs/python/tfds/load#args)):\n `None`\n\n- **Figure**\n ([tfds.show_examples](https://www.tensorflow.org/datasets/api_docs/python/tfds/visualization/show_examples)):\n\n- **Examples** ([tfds.as_dataframe](https://www.tensorflow.org/datasets/api_docs/python/tfds/as_dataframe)):\n\nDisplay examples... \n\n- **Citation**:\n\n @inproceedings{yang2016wider,\n Author = {Yang, Shuo and Luo, Ping and Loy, Chen Change and Tang, Xiaoou},\n Booktitle = {IEEE Conference on Computer Vision and Pattern Recognition (CVPR)},\n Title = {WIDER FACE: A Face Detection Benchmark},\n Year = {2016} }"]]