データセット蒸留(DD)は、コンパクトで忠実な合成データを約束しますが、従来のアプローチは単一教師モデルの帰納的バイアスを引き継ぐことが多く、データセットが大きくなるにつれ、生成されるサンプルが過度に滑らかで均一になり、クラス内の多様性が減少し、一般化が制限されます。本稿で提案するPRISM(さまざまなソースモデルからの先行知識)は、合成中にアーキテクチャ的先行知識を解体するフレームワークです。PRISMは、ロジットマッチングと正則化目的を分離し、異なる教師アーキテクチャで監視します。ImageNet-1KにおいてPRISMは、一貫して単一教師法や最近の多教師バリエーションを上回り、生成されたデータはクラス内多様性が豊かであることが示されています。さらに、教師選択戦略と、迅速な並列合成のためのスケーラブルなクロスクラスバッチ形成手法についても分析しています。