大規模言語モデル(LLM)は、広範な事前学習と厳選された微調整データを活用して、さまざまな分野で優れた能力を示しています。しかし、医療などのデータ感受性の高い分野では、高品質な特定ドメインのトレーニングコーパスが不足しているため、LLMの適応が妨げられています。そこで、Evontreeという新しいフレームワークを提案します。このフレームワークは、高品質なオントロジールールを利用して、LLM内のドメイン知識を体系的に抽出、検証、強化します。Evontreeは、未加工のモデルからドメインオントロジーを抽出し、オントロジールールを用いて不整合を検出し、自己蒸留による微調整で知識を強化します。実験結果は、医療QAベンチマークにおいて、従来のモデルや監視付きベースラインと比較して最大3.7%の精度向上を示し、このアプローチの有効性と効率性を確認しています。