V100-Rは、MOXIが提供する最先端のIMUモーションキャプチャシステムで、人型ロボットの遠隔制御およびVLAトレーニングに特化しています。自社開発の9軸IMU姿勢融合技術、特許取得済みのダイナミック姿勢補正アルゴリズム、ROS2 SDKを統合し、NVIDIA JetsonプラットフォームおよびROS2エコシステムに迅速に対応可能。開発者はV100-Rスーツとモーションキャプチャグローブを装着するだけで、直感的にロボット用トレーニングデータを生成でき、リアルタイムのモーション模倣、シミュレーションによるトレーニング、データドリブンなモーション学習を実現。プロトタイプ設計から産業応用までの開発スピードを飛躍的に加速します。IMUモーションキャプチャとして業界をリードし、トレーニング効率を最適化。スマート製造、人–機コラボレーション、エッジAIアプリに最適です。
なぜMOXIのV100-Rを人形ロボットのトレーニングに選ぶのか?
科学的に裏付けられた高精度データ
- 15顆の9軸IMUセンサーと高精度フィンガーモジュールを搭載し、全身360°のモーショントラッキングを実現。
- データ精度は±2°で、100Hzの更新レートにより、AI/ML学習用のデータを途切れることなく高い信頼性で提供します。
- 視線制約なし:従来のRGB-DやLiDARシステムとは異なり、照明条件、遮蔽、金属環境の影響を受けず、常に安定した動作を提供します。
開発環境へのシームレスな統合
- 専用ROS2 SDK:NVIDIA Isaac ROSプラットフォームとのROS2統合に対応し、ロボットのトレーニングおよび開発を加速します。
- NVIDIAエコシステム互換性:OmniverseおよびIsaac Simと完全互換。デジタルツインのモデリング、バーチャルトレーニングシナリオの生成、シミュレーションテストを実現します。
- エッジAI推論:NVIDIA Jetsonプラットフォーム向けにTensorRTで最適化。リアルタイムの動作解析と制御を実行可能。オフライン環境でもIMUベースのモーションキャプチャをローカル処理でサポートします。
- 標準データ出力:TF、Joint State、IMUデータの出力に対応。URDFモデルおよびRVizやTF Viewerなどの可視化ツールをフルサポートします。
- モジュール式・スケーラブルなアーキテクチャ:高精度なモーションデータライブラリを備え、AIトレーニングやバイオミメティックロボット制御に最適です。
実務での応用価値
- スマート製造:手作業のワークフローをIMUデータセットに変換し、ロボット学習の基盤として活用可能。
- 人–ロボット協働トレーニング:模倣学習、姿勢分類、転倒予測をサポート。
- 危険環境作業の代替:データ駆動型ロボットにより、高リスクまたは専門性の高い作業を安全に実行可能。
- AI・XR研究:デジタルツインモデリング、シミュレーションテスト、インタラクティブアプリケーションまで幅広くサポート。
- モーション駆動型制御:MoCapによる姿勢データを制御信号に変換し、バイオミメティックロボットやロボットアームを駆動。シミュレーション→トレーニング→実装までをシームレスに実現し、デジタルツインと制御の統合をフルサポート。
- AI強化型知覚:人間の関節データをリアルタイムで提供し、転倒予測や姿勢分類などのトレーニング・推論に活用可能。低遅延のエッジデバイス上でも、AIモデルによりタイムリーかつ精度の高い動作情報を提供。
V100-R の ROS2 SDK は現在開発中であり、ROS2 標準を優先的にサポートし、NVIDIA Jetson および Isaac Sim エコシステムとの高い互換性を備えています。私たちは ROS2 機能を積極的に強化するとともに、多様なロボット開発ニーズに対応するために、限定的な ROS1 互換性の検討も進めています。最新の開発状況については、ぜひ直接お問い合わせください。
MOXI V100-Rを使ったロボット訓練の流れ
オペレーターがV100-Rスーツを着用し、ロボットの動作をリアルタイムで制御。高精度なモーションデータを取得します。
遠隔操作中、ロボットはセンサー情報を収集し、動作や環境の理解を深めます。
モーションデータとセンサーデータを統合することで、AI駆動の深層学習によりロボットの動作パターンを最適化。
AIによる洞察を活用し、ロボットは多様な条件下で自律的に動作を学習・実行します。
主な活用事例
スマート製造
オペレーターの作業フローをIMUアクションデータに変換し、ロボットの学習に活用。
人–ロボット協働トレーニング
融合された9軸IMUデータを活用し、より正確な姿勢情報と模倣学習を実現。
危険・専門環境の代替
モーションデータを用いて、高リスクまたは高度な作業をロボットが安全に遂行。
AI・XR研究
デジタルツインモデリング、シミュレーション検証、没入型インタラクティブシナリオなどの応用をサポート。
ビジネス戦略と産業応用
| ビジネス側面 | 戦略的ポジショニング | ターゲット産業 / 応用シナリオ | 産業優位性と価値提案 |
|---|---|---|---|
| 産業内での役割ポジショニング | 「モジュール化された人体動作入力インターフェース」 → IMU MoCap 出力を制御・学習ワークフローにシームレスに統合 | ヒューマノイドロボット開発、AI トレーニングプラットフォーム | 通用性が高く、ウェアラブルかつ低コストの実体動作入力ソリューションを提供し、Jetson / ROS2 / Isaac とのクロスプラットフォーム統合に優れる |
| 技術ライセンス & SDK サービス | Isaac Sim / Jetson と統合可能な ROS2 SDK を提供 | ロボットハードウェア・ソフトウェア開発者、OEM/ODM パートナー | サードパーティ製品に IMU ベースの制御機能を迅速に統合させ、OEM/ODM の新たなビジネス機会を創出 |
| トレーニングデータ協力 | AI モデル訓練やバイオミメティック学習(模倣学習)に用いる高精度の人体動作データセットを提供 | AI 研究機関、ロボットトレーニングプラットフォーム | 信頼性の高いラベル付き「人体動作データ」を提供し、デジタルツイン、自律制御モデル、リアルなバイオミメティック学習に最適 |
| 標準ソリューション推進 | 「MOXI + Jetson/ROS2」標準開発キットを提供 | 開発者コミュニティ、産業試作・検証 | 開発ハードルを下げ、迅速なプロトタイピングとデプロイを可能にし、ブランド認知度とコミュニティ採用を拡大 |
仕様
MOXI V100-R センサー仕様
| センサーハブ (x2) | 重量: 8g、寸法: 42mm (1.65インチ) * 9.12mm (0.35インチ) |
|---|---|
| センサーユニット (x8) | 重量: 3.8g、寸法: 32mm (1.26インチ) * 6.64mm (0.26インチ) |
| 動作温度範囲 | 0°C ~ 50°C (32°F ~ 122°F) |
| トラッカー | 15個のキャリブレーション済み9軸IMUベースセンサー |
| 動的精度 | ±2° |
| 角度精度 | 小数点以下第2位を四捨五入 |
| データ出力レート | 100Hz |
| ストリーミングデータレート | 100Hz |
MOTi センサー仕様
| センサー | 5個のキャリブレーション済み9軸IMUベースセンサー |
|---|---|
| センサーバッテリー容量 | 420mAh、> 8時間 |
| 防水性 | IPX4クラス |
| 動作温度 | 0°C ~ 50°C (32°F ~ 122°F) |
| ワイヤレス通信 | Bluetooth |
| 動的精度 | ±2° |
| 寸法 & 重量 | 46.3x38.8x14.3mm, 19.2g |
| ボタン | 電源スイッチ |
| データ出力 & ストリーミングデータレート | 100Hz |
トランスポンダー1.0 仕様
| バッテリー | リチウムポリマー、2,000mAh |
|---|---|
| バッテリー稼働時間 | > 4時間 |
| 防水性 | IPX5クラス |
| Wi-Fi | デュアルバンド、Wi-Fi 4、Wi-Fi 5、またはWi-Fi 6 |
| コネクタ | 防水 |
| Bluetooth | 低エネルギー対応、Bluetooth v4.1以上 |
| 寸法 & 重量 | 60.2 x 76.8 x 19.2mm、75グラム |
| ボタン | 電源スイッチ |
| インジケーター | バッテリー容量、PCまたはWi-Fi接続、上半身接続、下半身接続 |
APP
| TransEZ App (Android, iOS) | トランスポンダーの設定および管理用 |
|---|
ソフトウェア
| MOXI Player (for Robot)プラットフォーム:Windows 10, 11 |
|
|---|---|
| MOXI Receiver (for Robot)プラットフォーム:Linux |
|
Windows システム要件
| CPU (中央処理装置) | Intel® Core™ i7 |
|---|---|
| メモリ (RAM) | 16GB 以上 |
| グラフィックス (GPU) | NVIDIA® GeForce RTX™ 4060推奨 (最適なパフォーマンスのため) |