この記事では、アラビア語のAI生成テキスト検出に関するAraGenEval共同タスクへのBUSTEDチームの提出が紹介されています。BUSTEDチームは、このタスクで5位を獲得し、AraELECTRA、CAMeLBERT、XLM-RoBERTaの3つの事前トレーニング済みトランスフォーマーモデルの有効性を調査しました。各モデルを提供されたデータセットで微調整し、バイナリ分類タスクを実施しました。その結果、特に驚くべきことに、多言語対応のXLM-RoBERTaモデルが0.7701のF1スコアで最高のパフォーマンスを達成し、専門のアラビア語モデルを上回りました。この研究は、AI生成テキスト検出の複雑性を強調し、多言語モデルの強力な一般化能力を示しています。