HyperAI超神経

DexGraspVLA ロボット把持データセット

このデータセットは、2025年にPsi-Robotチームによって作成されました。研究の背景は、雑然としたシーンでの器用な把持の高い成功率、特に見えない物体、照明、背景の組み合わせで90%を超える成功率を達成する必要性に基づいています。関連する論文の結果は次のとおりです。DexGraspVLA: 一般的な器用な把持に向けた視覚・言語・行動フレームワーク「」。このフレームワークは、事前トレーニング済みの視覚言語モデルを高レベルのタスク プランナーとして使用し、拡散ベースの戦略を低レベルのアクション コントローラーとして学習します。その革新性は、基本モデルを活用して強力な一般化機能を実現し、拡散ベースの模倣学習を使用して器用なアクションを獲得することにあります。

これは、人間のデモンストレーション データのサンプルが 51 個含まれた小さなデータセットです。データと形式を理解し、コードを実行してトレーニング プロセスを体験するのに役立ちます。

DexGraspVLA.torrent
シーディング 2ダウンロード中 1ダウンロード完了 24総ダウンロード数 32
  • DexGraspVLA/
    • README.md
      1.48 KB
    • README.txt
      2.95 KB
      • data/
        • DexGraspVLA-main.zip
          3.65 GB
          • DexGraspVLA-main/
            • DexGraspVLA-github.zip
              3.65 GB
            • grasp_demo_example.tar.gz
              7.29 GB