本研究では、非営利団体や公的機関がAIツールの導入をためらう理由として、モデルの不透明性が挙げられています。提案する方法は、透明な決定木モデルを大規模言語モデル(LLM)と組み合わせ、予測の精度や解釈可能性を向上させることを目的としています。具体的には、大学の成功プログラムに関するデータを用いて、主要な予測因子を明らかにする解釈可能な決定木を構築しました。さらに、これらの木構造をLLMに提供し、透明なモデルに基づいたケースレベルの予測を生成させます。実務者はモデル設計やレビューに参加し、現場の専門知識を分析に反映させます。この統合により、正確で信頼性のある行動可能な評価が得られ、公的および非営利部門での責任あるAI導入への道を開くものとされています。