中国本土で視覚×触覚ロボ学習データ「Baihu-VTouch」公開、6万分規模
ロボットが「見える」だけでなく「触れて分かる」学習へ。中国本土で今週火曜日(2026年1月27日)、視覚と触覚を組み合わせたロボット学習用データセット「Baihu-VTouch」が公開されたと、中国メディアが報じました。
6万分の“視覚+触覚”データとは何か
Baihu-VTouchは、ロボットの実機インタラクション(環境に触れて作業する過程)のデータを6万分超収録する、同種のオープンソースとしては最大級のマルチモーダル(複数感覚)データセットとされています。
特徴は、カメラ映像などの視覚情報に加え、接触時の圧力や変形といった触覚情報を幅広い「触れ方」で記録している点です。想定シーンとして、家庭内サービス、工業製造、飲食、専門作業などの現場に近い状況が挙げられています。
収録規模:タスク380種、実物体500点超
- ロボット構成:車輪型・二足型など複数プラットフォーム
- タスク:380種類以上
- 対象物:500点以上の実世界オブジェクト
- 基礎スキル:把持、挿入、回転、配置など100以上
開発・公開は「国家・地方共建ヒューマノイドロボット革新センター」がテクノロジー企業と協力して行い、日常・産業の操作タスクの約90%を支援できる設計だとされています。
なぜ触覚データが重要なのか:視覚偏重の限界
これまでのエンボディドAI(身体をもつAI)では、学習データが視覚入力中心になりがちで、ロボットは「見えている前提」で動く傾向がありました。その結果として、
- 暗所や逆光など視界が不安定な環境での作業
- ガラス製品や食品など壊れやすい物体の取り扱い
といった場面で性能が伸びにくい、という課題が指摘されてきました。触覚(圧力や滑り、形状の微妙な変化)は、視覚を補い、作業の安定性や安全性を上げる手がかりになります。
公開状況:まずは6,000分が利用可能に
現時点(2026年1月28日)では、Baihu-VTouchのうち6,000分がオープンソースのロボットプラットフォーム「OpenLoong」で利用可能になっているとされています。段階的な公開は、研究者や開発者が実験を回しながら改善点を見つけ、データ形式や学習手法をすり合わせるうえでも現実的な進め方と言えます。
背景:ロボットは「データで育つ」時代へ
知能ロボットの性能は、モデル(アルゴリズム)だけでなく、学習に使うデータに強く左右されます。報道によれば、中国本土では2025年6月に、最大規模のヒューマノイドロボット訓練施設「湖北ヒューマノイドロボットセンター」が開設され、23種類の模擬環境に多数のロボットを配置し、年1,000万点超のデータ収集が可能だとされています。
こうした“現場に近いデータ”と“共有可能なデータセット”が並行して整備されることで、家庭・工場・店舗など多様な環境でのロボット運用が、より現実味を帯びていくのかもしれません。
次の焦点:触覚の標準化と、安全に扱うためのルール
視覚と同様に、触覚データも「どう測り、どう表現し、どう共有するか」で互換性が大きく変わります。今後は、
- 触覚センサーの違いを吸収できるデータ形式の標準化
- 実環境の収録に伴う安全設計や運用手順
- 学習済みロボットの動作検証(壊しにくさ、傷つけにくさ)の評価方法
といった論点が、技術開発と並んで重要になりそうです。
Reference(s):
China releases 60,000-minute vision-and-touch robotics dataset
cgtn.com








