本論文では、大規模言語モデル(LLMs)の「エンドツーエンド」というラベルの誤解を正し、手動でのデコーディングプロセスへの依存を克服する新しいアーキテクチャ「AutoDeco」を提案します。AutoDecoは、トークン生成の過程で自らのデコーディング戦略を学習し、各ステップで文脈に応じた温度やtop-p値を動的に予測する軽量ヘッドを追加することで、真のエンドツーエンド生成を実現します。実験では、AutoDecoが従来のデコーディング戦略を明显に上回り、調整されたベースラインと同等の性能を達成することを示しています。また、自然言語での指示によるデコーディング制御能力を発見し、モデルが指示に基づいて逐次的に出力を調整できる新しい手法を提案しています。これにより、インタラクティブなLLMデコーディングの新しいパラダイムが開かれます。