光学マイクロロボットの精密な姿勢推定は、正確な物体追跡や自律的な生物学的研究に不可欠です。しかし、現在の手法は、大規模な高品質な顕微鏡画像データセットに依存しており、これらのデータを取得するのは困難で高コストです。本研究では、波動光学に基づく物理レンダリングと深さアラインメントを生成的敵対ネットワーク(GAN)に統合した新たな物理情報に基づく深層生成学習フレームワークを提案し、従来のAI主導の手法に比べて構造的類似度指数(SSIM)を35.6%向上させています。この手法で訓練された姿勢推定器は、合成データで93.9%/91.9%の精度を達成し、実データのみで訓練された推定器に近い性能を示しています。また、提案手法は新たな姿勢への一般化が可能で、追加の訓練データなしで新しいマイクロロボット構成のデータ拡張と堅牢な姿勢推定を実現します。