機械学習モデルが医療にますます統合される中、臨床データに埋め込まれた構造的不平等や社会的バイアスがデータ主導のモデルによって再生産または強化される可能性があります。生存分析では、検閲や時間のダイナミクスが公平なモデル開発をさらに複雑にします。特に、高リスクの黒人患者が低リスクの白人患者の下にランク付けされるなど、グループ間の格差が見過ごされがちです。この記事では、FASMという「公平性を考慮した生存モデル」を提案し、時間にわたるリスクランキングのバイアスを軽減することを目指します。具体的には、乳がんの予後データにFASMを適用し、従来のモデルと比較して公平性を大幅に改善しつつ、予測精度も維持することを示しました。10年間の時間を分けた評価では、FASMが安定した公平性を保つことが確認され、特に中期のフォローアップ期間で顕著な改善が見られました。このアプローチは、医療における意思決定での精度と公平性を両立させられる可能性を示唆しています。