本研究では、ディープネットワークにおけるショートカットの影響を調査しています。ショートカットは、トレーニング中に良好な性能を示すが一般化に失敗する擬似ルールであり、特に特徴表現への影響があまり研究されていません。本記事では、深層モデルにおけるレイヤーごとのショートカットの局所化を定量的に分析する新しい実験設計を提案しています。この設計を用いてCIFAR-10やWaterbirds、CelebAのデータセット上で実験を行い、ショートカット学習が特定のレイヤーに局所化されているのではなく、ネットワーク全体に分散していることを発見しました。浅いレイヤーは主に擬似的な特徴をエンコードし、深いレイヤーはクリーンデータで予測的なコア特徴を忘却します。また、ショートカット緩和戦略の分布についても分析を行い、データセットやアーキテクチャに特化したアプローチの重要性を支持しています。