本論文では、新しい行列量子化手法であるバイナリ二次量子化(BQQ)を提案しています。従来の均等量子化やバイナリコーディング量子化といった一次量子化手法は、実数値行列をバイナリ基底の線形結合として近似しますが、BQQは二次計算式の表現力を活かしつつ、非常にコンパクトなデータ形式を保っている点が特徴です。実験として、行列圧縮のベンチマークと、事前学習済みのVision Transformerベースのモデルに対するポストトレーニング量子化(PTQ)を行い、BQQが従来手法よりもメモリ効率と再構成誤差の優れたトレードオフを達成することを示しています。また、BQQは緊密なメモリ制約下での最新のPTQ精度を目指さないにもかかわらず、ImageNetデータセットにおいて、従来のPTQ手法を最大2.2%および59.1%上回る性能を記録しました。この研究は、効率的な行列近似と神経ネットワーク圧縮のためのバイナリ二次表現の意外な有効性を示しています。