arXiv cs.LG

maxVSTAR: 最大適応型視覚誘導CSIセンシングによる閉ループエッジモデル適応を用いた堅牢な人間活動認識

maxVSTAR: Maximally Adaptive Vision-Guided CSI Sensing with Closed-Loop Edge Model Adaptation for Robust Human Activity Recognition

http://arxiv.org/abs/2510.26146v1


maxVSTARは、WiFiチャネル状態情報(CSI)に基づく人間活動認識(HAR)のための新しいフレームワークで、特にエッジデバイスでの適用における性能低下問題を克服します。従来のシステムは、環境やハードウェアの変化により認識精度が著しく低下するドメインシフトに悩まされていました。maxVSTARは、視覚モデル(YOLOベース)の動的な監視信号を取り入れており、リアルタイムの活動ラベルを提供することで、軽量なCSIベースのHARモデル(STAR)の自律的な微調整を可能にします。この閉ループの再訓練機構により、STARは手動の介入なしに環境の変化に応じて継続的に適応します。実験では、未校正のハードウェア上でのSTARモデルの認識精度が93.52%から49.14%に低下した後、maxVSTARを適用することで81.51%に回復しました。この結果は、プライバシーを重視したIoT環境における自律的なHARを実現するための新たなスケーラブルなパラダイムを示しています。