smartwatch_gestures,smartwatch_gestures
コレクションでコンテンツを整理
必要に応じて、コンテンツの保存と分類を行います。
SmartWatch Gestures Datasetは、腕のジェスチャーを使用してモバイル アプリケーションと対話するためのいくつかのジェスチャー認識アルゴリズムを評価するために収集されました。
8 人の異なるユーザーが 20 の異なるジェスチャを 20 回繰り返し、合計 3200 のシーケンスを実行しました。各シーケンスには、第 1 世代の Sony SmartWatch™ の 3 軸加速度計からの加速度データと、Android デバイスで利用可能なさまざまなクロック ソースからのタイムスタンプが含まれています。スマートウォッチはユーザーの右手首に装着されました。ジェスチャは、ユーザーが繰り返しの最初と最後にスマートウォッチの画面をタップすることで、手動でセグメント化されています。
FeaturesDict({
'attempt': uint8,
'features': Sequence({
'accel_x': float64,
'accel_y': float64,
'accel_z': float64,
'time_event': uint64,
'time_millis': uint64,
'time_nanos': uint64,
}),
'gesture': ClassLabel(shape=(), dtype=int64, num_classes=20),
'participant': uint8,
})
特徴 | クラス | 形 | Dtype | 説明 |
---|
| 特徴辞書 | | | |
試み | テンソル | | uint8 | |
特徴 | 順序 | | | |
機能/accel_x | テンソル | | float64 | |
機能/accel_y | テンソル | | float64 | |
機能/accel_z | テンソル | | float64 | |
機能/時間_イベント | テンソル | | uint64 | |
features/time_millis | テンソル | | uint64 | |
機能/時間_ナノス | テンソル | | uint64 | |
ジェスチャー | クラスラベル | | int64 | |
参加者 | テンソル | | uint8 | |
@INPROCEEDINGS{
6952946,
author={Costante, Gabriele and Porzi, Lorenzo and Lanz, Oswald and Valigi, Paolo and Ricci, Elisa},
booktitle={2014 22nd European Signal Processing Conference (EUSIPCO)},
title={Personalizing a smartwatch-based gesture interface with transfer learning},
year={2014},
volume={},
number={},
pages={2530-2534},
doi={} }
特に記載のない限り、このページのコンテンツはクリエイティブ・コモンズの表示 4.0 ライセンスにより使用許諾されます。コードサンプルは Apache 2.0 ライセンスにより使用許諾されます。詳しくは、Google Developers サイトのポリシーをご覧ください。Java は Oracle および関連会社の登録商標です。
最終更新日 2023-01-13 UTC。
[null,null,["最終更新日 2023-01-13 UTC。"],[],[],null,["# smartwatch_gestures\n\n\u003cbr /\u003e\n\n- **Description**:\n\nThe **SmartWatch Gestures Dataset** has been collected to evaluate several\ngesture recognition algorithms for interacting with mobile applications using\narm gestures.\n\nEight different users performed twenty repetitions of twenty different gestures,\nfor a total of 3200 sequences. Each sequence contains acceleration data from the\n3-axis accelerometer of a first generation Sony SmartWatch™, as well as\ntimestamps from the different clock sources available on an Android device. The\nsmartwatch was worn on the user's right wrist. The gestures have been manually\nsegmented by the users performing them by tapping the smartwatch screen at the\nbeginning and at the end of every repetition.\n\n- **Homepage** :\n \u003chttps://tev.fbk.eu/resources/smartwatch\u003e\n\n- **Source code** :\n [`tfds.datasets.smartwatch_gestures.Builder`](https://github.com/tensorflow/datasets/tree/master/tensorflow_datasets/datasets/smartwatch_gestures/smartwatch_gestures_dataset_builder.py)\n\n- **Versions**:\n\n - **`1.0.0`** (default): Initial release.\n- **Download size** : `2.06 MiB`\n\n- **Dataset size** : `2.64 MiB`\n\n- **Auto-cached**\n ([documentation](https://www.tensorflow.org/datasets/performances#auto-caching)):\n Yes\n\n- **Splits**:\n\n| Split | Examples |\n|-----------|----------|\n| `'train'` | 3,251 |\n\n- **Feature structure**:\n\n FeaturesDict({\n 'attempt': uint8,\n 'features': Sequence({\n 'accel_x': float64,\n 'accel_y': float64,\n 'accel_z': float64,\n 'time_event': uint64,\n 'time_millis': uint64,\n 'time_nanos': uint64,\n }),\n 'gesture': ClassLabel(shape=(), dtype=int64, num_classes=20),\n 'participant': uint8,\n })\n\n- **Feature documentation**:\n\n| Feature | Class | Shape | Dtype | Description |\n|----------------------|--------------|-------|---------|-------------|\n| | FeaturesDict | | | |\n| attempt | Tensor | | uint8 | |\n| features | Sequence | | | |\n| features/accel_x | Tensor | | float64 | |\n| features/accel_y | Tensor | | float64 | |\n| features/accel_z | Tensor | | float64 | |\n| features/time_event | Tensor | | uint64 | |\n| features/time_millis | Tensor | | uint64 | |\n| features/time_nanos | Tensor | | uint64 | |\n| gesture | ClassLabel | | int64 | |\n| participant | Tensor | | uint8 | |\n\n- **Supervised keys** (See\n [`as_supervised` doc](https://www.tensorflow.org/datasets/api_docs/python/tfds/load#args)):\n `('features', 'gesture')`\n\n- **Figure**\n ([tfds.show_examples](https://www.tensorflow.org/datasets/api_docs/python/tfds/visualization/show_examples)):\n Not supported.\n\n- **Examples**\n ([tfds.as_dataframe](https://www.tensorflow.org/datasets/api_docs/python/tfds/as_dataframe)):\n\nDisplay examples... \n\n- **Citation**:\n\n @INPROCEEDINGS{\n 6952946,\n author={Costante, Gabriele and Porzi, Lorenzo and Lanz, Oswald and Valigi, Paolo and Ricci, Elisa},\n booktitle={2014 22nd European Signal Processing Conference (EUSIPCO)},\n title={Personalizing a smartwatch-based gesture interface with transfer learning},\n year={2014},\n volume={},\n number={},\n pages={2530-2534},\n doi={} }"]]