本稿では、INTとFPの量子化フォーマットの比較を行い、特に大規模言語モデル(LLM)での活用について明らかにします。研究の結果、FPは粗粒度の量子化では優れた性能を示す一方、細粒度(ブロック単位)での比較はより複雑であることが判明しました。8ビットの細粒度フォーマットでは、MXINT8がFPに比べアルゴリズム精度とハードウェア効率で優れていることが示されましたが、4ビットフォーマットではFPが平均して精度の利点を持つことも確認されました。しかし、特定のテクニックを用いることでINTフォーマットもFPを上回る可能性があることを示しています。また、シンメトリッククリッピング法を導入し、訓練時の勾配バイアスを解消できることも示され、MXINT8を用いたトレーニングではほぼ損失のない性能を実現しました。これらの成果は、将来のAIアクセラレーターにおけるINTフォーマットの優位性を強調しています。