本論文では、医療における人工知能の正確性と解釈可能性を向上させるため、Medical Sparse Autoencoders(MedSAE)を用いて、胸部X線画像とレポートに基づいて訓練された視覚言語モデルであるMedCLIPの潜在空間を解析しています。解釈可能性を定量化するために、相関尺度、エントロピー分析、およびMedGEMMA基盤モデルによる自動ニューロン命名を組み合わせた評価フレームワークを提案しています。CheXpertデータセットを用いた実験では、MedSAEニューロンが生のMedCLIP特徴よりも高い単語の意味明確性と解釈可能性を達成することが示されました。これにより、高性能な医療AIと透明性を結びつけ、臨床的に信頼できる表現へのスケーラブルな一歩を提供しています。