HackerNews

大規模言語モデルにおける内省の兆候

Signs of introspection in large language models

https://www.anthropic.com/research/introspection


この記事では、大規模言語モデル(LLM)が自身の思考を内省できるかどうかについての研究結果を紹介しています。AIに対してその思考過程を説明するよう求めると、モデルは答えることがありますが、その回答がどれほど信頼できるかは疑問です。内省が可能であれば、モデルの透明性や信頼性向上に寄与し、推論過程の理解や問題解決に役立ちます。ただし、現段階では、AIの内省能力は不完全であり、特に人間のような深さには達していないとされています。研究では特定の内的状態に対する認識を持つことの証拠が得られ、特に高能力モデルが最も良好な結果を示すことが分かりました。最終的に、AIの内省能力は今後ますます進化する可能性があることが示唆されています。