本研究では、重みプルーニングとコアセット選択の相互作用を利用し、ニューラルネットワークの学習効率を向上させる方法を探求します。深層ニューラルネットワークは、膨大なモデル重みと学習サンプルに依存しており、計算コストが高くなります。過剰適合や無関係な重みの識別が難しいという問題に直面し、同時に重みとサンプルを除去することで重要な重みやサポートサンプルが誤って排除される「クリティカルダブルロス」が発生することがあります。これに対処するために、SWaST(Simultaneous Weight and Sample Tailoring)メカニズムを開発し、安定した共同最適化を実現しました。広範な実験により、重みプルーニングとコアセット選択の強い相乗効果が確認され、精度が最大17.83%向上し、FLOPsを10%から90%削減できることが示されました。