本記事では、説明可能なAI(XAI)について述べ、従来のアトリビューション手法がモデルの最終状態を静的かつ不完全にしか表現できない問題を指摘します。この問題を解決するために、特徴関数の曲率分析(FFCA)という新たな枠組みを提案しています。FFCAは、モデルが学習した関数の幾何学を分析し、各特徴に対してその影響、変動性、非線形性、相互作用を定量化する4次元の署名を生成します。また、この枠組みを動的アーキタイプ分析に拡張し、トレーニングプロセス中の署名の進化を追跡します。この時間的な視点により、モデルがどのように学習するかを明らかにし、階層学習の直接的な実証的証拠を提供しています。さらに、動的分析により、適切なモデル容量を特定し、過剰適合の発生を予測するための新しい診断法を提供しています。実験結果は、FFCAがモデルの説明を単純な定量化から全体の学習プロセスに対する微妙で信頼できる分析へと変換するための重要な幾何学的文脈を提供することを示しています。