「パンドロイド」という新しいパラダイムでは、モデル訓練がデータから情報を抽出し、一方ですべての下流タスクや損失を最小化できるようにすることが強調されています。この記事では、この枠組みを数学的に定式化し、その統計的複雑性を調査します。パンドロイドは、予測の一般化に関する「オムニプレディクション」や、複数のグループ学習とは異なり、無限の損失を無限のタスクに対して同時に最適化できる技術です。この研究では、決定論的およびランダムなパンドロイド予測器を設計し、サンプル数の面での保証を改善しています。また、下流タスクにおける無限の損失を最小化することが、一つの損失を最小化するのと同様に統計的に容易であることを示しています。