キティ
コレクションでコンテンツを整理
必要に応じて、コンテンツの保存と分類を行います。
Kitti には、自動運転プラットフォームを使用して構築された一連のビジョン タスクが含まれています。完全なベンチマークには、ステレオ、オプティカル フロー、ビジュアル オドメトリなどの多くのタスクが含まれています。このデータセットには、単眼画像や境界ボックスを含む物体検出データセットが含まれています。データセットには、3D 境界ボックスで注釈が付けられた 7481 個のトレーニング画像が含まれています。注釈の完全な説明は、Kitti ホームページにあるオブジェクト開発キットの Readme に記載されています。
スプリット | 例 |
---|
'test' | 711 |
'train' | 6,347 |
'validation' | 423 |
FeaturesDict({
'image': Image(shape=(None, None, 3), dtype=uint8),
'image/file_name': Text(shape=(), dtype=string),
'objects': Sequence({
'alpha': float32,
'bbox': BBoxFeature(shape=(4,), dtype=float32, description=2D bounding box of object in the image),
'dimensions': Tensor(shape=(3,), dtype=float32, description=3D object dimensions: height, width, length (in meters)),
'location': Tensor(shape=(3,), dtype=float32, description=3D object location x,y,z in camera coordinates (in meters)),
'occluded': ClassLabel(shape=(), dtype=int64, num_classes=4),
'rotation_y': float32,
'truncated': float32,
'type': ClassLabel(shape=(), dtype=int64, num_classes=8),
}),
})
特徴 | クラス | 形 | Dタイプ | 説明 |
---|
| 特徴辞書 | | | |
画像 | 画像 | (なし、なし、3) | uint8 | |
画像/ファイル名 | 文章 | | 弦 | |
オブジェクト | 順序 | | | |
オブジェクト/アルファ | テンソル | | float32 | オブジェクトの観察角度、範囲 [-pi..pi] |
オブジェクト/Bボックス | BBox機能 | (4,) | float32 | 画像内のオブジェクトの 2D 境界ボックス |
オブジェクト/寸法 | テンソル | (3,) | float32 | 3D オブジェクトの寸法: 高さ、幅、長さ (メートル単位) |
オブジェクト/場所 | テンソル | (3,) | float32 | カメラ座標における 3D オブジェクトの位置 x、y、z (メートル単位) |
オブジェクト/遮蔽物 | クラスラベル | | int64 | オクルージョン状態を示す整数 (0、1、2、3): 0 = 完全に表示、1 = 部分的にオクルージョン2 = 大幅にオクルージョン、3 = 不明 |
オブジェクト/回転_y | テンソル | | float32 | カメラ座標における Y 軸周りの回転 ry [-pi..pi] |
オブジェクト/切り捨てられた | テンソル | | float32 | 0 (切り捨てられていない) から 1 (切り捨てられた) までの浮動小数点。切り捨てられたとは、画像の境界を残すオブジェクトを指します。 |
オブジェクト/タイプ | クラスラベル | | int64 | オブジェクトのタイプ (例: 「車」または「バン」) |

@inproceedings{Geiger2012CVPR,
author = {Andreas Geiger and Philip Lenz and Raquel Urtasun},
title = {Are we ready for Autonomous Driving? The KITTI Vision Benchmark Suite},
booktitle = {Conference on Computer Vision and Pattern Recognition (CVPR)},
year = {2012}
}
特に記載のない限り、このページのコンテンツはクリエイティブ・コモンズの表示 4.0 ライセンスにより使用許諾されます。コードサンプルは Apache 2.0 ライセンスにより使用許諾されます。詳しくは、Google Developers サイトのポリシーをご覧ください。Java は Oracle および関連会社の登録商標です。
最終更新日 2024-09-04 UTC。
[null,null,["最終更新日 2024-09-04 UTC。"],[],[],null,["# kitti\n\n\u003cbr /\u003e\n\n- **Description**:\n\nKitti contains a suite of vision tasks built using an autonomous driving\nplatform. The full benchmark contains many tasks such as stereo, optical flow,\nvisual odometry, etc. This dataset contains the object detection dataset,\nincluding the monocular images and bounding boxes. The dataset contains 7481\ntraining images annotated with 3D bounding boxes. A full description of the\nannotations can be found in the readme of the object development kit readme on\nthe Kitti homepage.\n\n- **Additional Documentation** :\n [Explore on Papers With Code\n north_east](https://paperswithcode.com/dataset/kitti)\n\n- **Homepage** :\n \u003chttp://www.cvlibs.net/datasets/kitti/\u003e\n\n- **Source code** :\n [`tfds.datasets.kitti.Builder`](https://github.com/tensorflow/datasets/tree/master/tensorflow_datasets/datasets/kitti/kitti_dataset_builder.py)\n\n- **Versions**:\n\n - `3.1.0`: No release notes.\n - `3.2.0`: Devkit updated.\n - **`3.3.0`** (default): Added labels for the `occluded` feature.\n- **Download size** : `11.71 GiB`\n\n- **Dataset size** : `5.27 GiB`\n\n- **Auto-cached**\n ([documentation](https://www.tensorflow.org/datasets/performances#auto-caching)):\n No\n\n- **Splits**:\n\n| Split | Examples |\n|----------------|----------|\n| `'test'` | 711 |\n| `'train'` | 6,347 |\n| `'validation'` | 423 |\n\n- **Feature structure**:\n\n FeaturesDict({\n 'image': Image(shape=(None, None, 3), dtype=uint8),\n 'image/file_name': Text(shape=(), dtype=string),\n 'objects': Sequence({\n 'alpha': float32,\n 'bbox': BBoxFeature(shape=(4,), dtype=float32, description=2D bounding box of object in the image),\n 'dimensions': Tensor(shape=(3,), dtype=float32, description=3D object dimensions: height, width, length (in meters)),\n 'location': Tensor(shape=(3,), dtype=float32, description=3D object location x,y,z in camera coordinates (in meters)),\n 'occluded': ClassLabel(shape=(), dtype=int64, num_classes=4),\n 'rotation_y': float32,\n 'truncated': float32,\n 'type': ClassLabel(shape=(), dtype=int64, num_classes=8),\n }),\n })\n\n- **Feature documentation**:\n\n| Feature | Class | Shape | Dtype | Description |\n|--------------------|--------------|-----------------|---------|-----------------------------------------------------------------------------------------------------------------------|\n| | FeaturesDict | | | |\n| image | Image | (None, None, 3) | uint8 | |\n| image/file_name | Text | | string | |\n| objects | Sequence | | | |\n| objects/alpha | Tensor | | float32 | Observation angle of object, ranging \\[-pi..pi\\] |\n| objects/bbox | BBoxFeature | (4,) | float32 | 2D bounding box of object in the image |\n| objects/dimensions | Tensor | (3,) | float32 | 3D object dimensions: height, width, length (in meters) |\n| objects/location | Tensor | (3,) | float32 | 3D object location x,y,z in camera coordinates (in meters) |\n| objects/occluded | ClassLabel | | int64 | Integer (0,1,2,3) indicating occlusion state: 0 = fully visible, 1 = partly occluded2 = largely occluded, 3 = unknown |\n| objects/rotation_y | Tensor | | float32 | Rotation ry around Y-axis in camera coordinates \\[-pi..pi\\] |\n| objects/truncated | Tensor | | float32 | Float from 0 (non-truncated) to 1 (truncated), wheretruncated refers to the object leaving image boundaries |\n| objects/type | ClassLabel | | int64 | The type of object, e.g. 'Car' or 'Van' |\n\n- **Supervised keys** (See\n [`as_supervised` doc](https://www.tensorflow.org/datasets/api_docs/python/tfds/load#args)):\n `None`\n\n- **Figure**\n ([tfds.show_examples](https://www.tensorflow.org/datasets/api_docs/python/tfds/visualization/show_examples)):\n\n- **Examples** ([tfds.as_dataframe](https://www.tensorflow.org/datasets/api_docs/python/tfds/as_dataframe)):\n\nDisplay examples... \n\n- **Citation**:\n\n @inproceedings{Geiger2012CVPR,\n author = {Andreas Geiger and Philip Lenz and Raquel Urtasun},\n title = {Are we ready for Autonomous Driving? The KITTI Vision Benchmark Suite},\n booktitle = {Conference on Computer Vision and Pattern Recognition (CVPR)},\n year = {2012}\n }"]]