arXiv cs.AI

AraGenEval共同タスクにおけるBUSTED:アラビア語AI生成テキスト検出のためのトランスフォーマーベースモデルの比較研究

BUSTED at AraGenEval Shared Task: A Comparative Study of Transformer-Based Models for Arabic AI-Generated Text Detection

http://arxiv.org/abs/2510.20610v1


この記事では、アラビア語のAI生成テキスト検出に関するAraGenEval共同タスクへのBUSTEDチームの提出が紹介されています。BUSTEDチームは、このタスクで5位を獲得し、AraELECTRA、CAMeLBERT、XLM-RoBERTaの3つの事前トレーニング済みトランスフォーマーモデルの有効性を調査しました。各モデルを提供されたデータセットで微調整し、バイナリ分類タスクを実施しました。その結果、特に驚くべきことに、多言語対応のXLM-RoBERTaモデルが0.7701のF1スコアで最高のパフォーマンスを達成し、専門のアラビア語モデルを上回りました。この研究は、AI生成テキスト検出の複雑性を強調し、多言語モデルの強力な一般化能力を示しています。