arXiv cs.AI

エッジとクラウドプラットフォームにおける深層学習の推論配置の再考:多目的最適化の視点と今後の方向性

Rethinking Inference Placement for Deep Learning across Edge and Cloud Platforms: A Multi-Objective Optimization Perspective and Future Directions

http://arxiv.org/abs/2510.22909v1


この記事では、エッジデバイスやクラウドプラットフォームにおける深層学習モデルの推論配置について再考し、効率的なオフロード手法を探る。特に、IoTやモバイルデバイスの急速な普及に伴い、VR/ARアプリケーションやチャットボットのようなエッジインテリジェントアプリケーションが増加しているが、制約のあるエッジデバイスは複雑なモデルを扱うのが難しい。技術者はユーザーデバイス、エッジサーバー、クラウド間でのモデルの最適化とオフロードを提案しており、これにより低遅延のエッジリソースとコスト効率の良いクラウドの利用が可能になる。しかし、モデルを分割して通信する際には伝送ボトルネックやデータ漏洩のリスクがある。この研究は、推論遅延、データプライバシー、リソースコストを考慮した多目的最適化の枠組みに沿ったモデル圧縮やアーキテクチャ調整などの最先端の手法を考察している。