本記事では、多モーダル大規模言語モデル(MLLM)が医療画像の推論において強力な可能性を示す一方で、人口統計グループ間の公平性が大きな懸念であることを探求しています。既存のデバイアシング手法は、多くのラベル付きデータセットやファインチューニングに頼ることが多く、基盤スケールのモデルには不向きです。そのため、本研究では、調整不要な軽量な代替手段としてIn-Context Learning(ICL)を提案します。従来のデモンストレーション選択(DS)戦略が選択された例の人口統計的不均衡により公平性を保証できないことを示しています。これを解決するために、人口統計的にバランスの取れた、かつセマンティクス的に関連するデモンストレーションを構築するFairness-Aware Demonstration Selection(FADS)を提案します。実験では、FADSが性別、人種、エスニシティに関連するギャップを一貫して減少させながら、高い精度を維持することを示しました。この結果は、公平性を考慮したインコンテキスト学習が公正な医療画像推論のためのスケーラブルでデータ効率の良い解決策である可能性を強調しています。