大規模言語モデル(LLM)は、最近、多くの推論および生成タスクで印象的な能力を示しています。しかし、研究はLLMが因果関係を特定する能力に欠けていることを明らかにしました。この問題を解決するために、著者たちは、観察データセット向けに設計された因果発見アルゴリズムの出力をLLMにプロンプトとして与える方法を提案します。しかし、このアプローチは期待に反して、LLMの因果発見のパフォーマンスを低下させることが分かりました。そこで提案されたのがCAREというフレームワークで、LLMにこれらのアルゴリズムの出力を効果的に活用させるために、教師あり微調整を通じて因果推論能力を強化します。実験結果は、CAREによって微調整されたQwen2.5-1.5Bモデルが、従来の因果発見アルゴリズムおよび最先端のLLMを大幅に上回るパフォーマンスを示し、効果的な知識の活用を実証しました。