本論文では、解釈可能なモデルを生成するための包括的な手法であるMIMOSA(Mining Interpretable Models exploiting Sophisticated Algorithms)フレームワークの基盤を正式に構築しています。解釈可能性とパフォーマンスのバランスを取りつつ、重要な倫理的特性を組み込んだ予測モデルの生成を目指します。指導型学習の設定を多様な意思決定タスクおよびデータタイプ(テーブルデータ、時系列、画像、テキスト、取引、軌跡など)に渡って定義し、解釈可能なモデルの主要な3つのファミリー—特徴の重要性、ルールベース、インスタンスベース型モデル—を特性、推論メカニズム、複雑性の観点から分析します。さらに、因果関係、公平性、プライバシーという3つの重要な倫理的特性についても定義を提供し、それぞれの評価基準および検証手続きを確立します。これらの特性間のトレードオフを考察し、解釈可能なパイプライン内で倫理的要件を組み込む方法について議論しています。本フレームワークにより、正確で解釈可能なだけでなく、公平でプライバシーを保護し、因果認識を持った信頼できるAIシステムの開発の理論的基盤が築かれます。