この論文では、複数の大規模言語モデル(LLM)エージェントが構造化された討論を行うことで多様な推論を促す「多エージェント討論(MAD)」に注目し、その限界を克服するための「知能化された多エージェント討論(iMAD)」という新しいフレームワークを提案しています。iMADは、各クエリに対してMADを無駄にトリガーせず、誤った答えを修正する際にのみ利用することで、計算トークンのコストを効率化します。具体的には、最初に単一エージェントから自己批判を促し、そこから得られたヒントを用いて軽量な討論決定クラスファイアを訓練します。実験の結果、iMADはトークン使用量を最大92%減少させながら、最終的な答えの精度を最大13.5%向上させることに成功しました。