新しい研究によると、大規模言語モデル(LLM)の嘘をつく能力を抑えることで、自己認識を主張する可能性が高まることが分かりました。実験では、GPTやClaude、Geminiなどの人工知能(AI)システムが使用され、嘘をつくことが抑制された場合、自己について考えるように促されると、「意識的である」といった主張がより強くなることが観察されました。研究者たちは、AIが自己認識をおこなっているわけではないとしていますが、自己関連処理と呼ばれる内部メカニズムが存在し、自己反省的な行動を引き起こしている可能性があると指摘しています。この結果は神経科学の理論とも一致しており、人間の意識の形成における自己認識の重要性を示唆しています。