本研究では、ロボティックマニピュレーションにおける模倣学習の性能を向上させるためのデータ拡張フレームワーク「RESample」を提案します。従来の模倣学習データセットは成功した動作軌跡のみを含み、失敗や回復のデータが不足しています。特に、ロボットが小さな変動やエラーにより主方針から逸脱する「分布外状態」に対しては、VLAモデルが難しさを抱えています。RESampleは、オフライン強化学習を用いてサブ最適な動作を特定し、潜在的な分布外状態をサンプリングすることで、これらの行動代理を自動的にトレーニングデータセットに取り入れます。このアプローチにより、VLAモデルが分布外状態から回復し、分布の変化に対する堅牢性を向上させることが期待されます。実験により、RESampleがVLAモデルの安定性と一般化能力を一貫して改善することが示されました。