大規模言語モデル(LLM)エージェントが協力することで、数学の問題解決において単一のLLMよりも強力であることが示されました。しかし、エージェントは敵対的入力に対してもより頑健なのでしょうか?この記事では、様々な強度(10%、30%、50%)の句読点ノイズや人間に似たタイプミスを含む敵対的に変化させた数学の問題を用いて、この質問を探求しています。6つのオープンソースモデルを評価した結果、ノイズの種類が効果に影響を与え、特に人間のタイプミスが大きな障害となっていることがわかりました。また、エージェントの数が増えることで正確性が向上する一方で、敵対的頑健性のギャップは依然として存在することも明らかになりました。特にエージェントを1から5に増やすことで最大の効果が得られ、10以上では効果の逓減が見られました。