大規模言語モデル(LLM)が臨床の意思決定支援や患者情報システムに利用される中、そのプライバシーと信頼性の確保が重要な課題として浮上しています。本研究では、LLMが特定の患者記録がモデルの学習に使用されたかどうかを攻撃者が推測できるかに焦点を当て、メンバーシップ推論の脆弱性を探ります。最先端の臨床質問応答モデルLlemrを用い、従来の損失ベースの攻撃手法と、臨床的な敵対的状況を反映した文類似度に基づく攻撃手法を評価しました。その結果、限られたメンバーシップ漏洩が確認され、現在の臨床LLMは一定の抵抗を持つものの、微妙なプライバシーリスクを抱えていることが示されました。これは、医療 AI システムのセキュリティと信頼性を強化するための文脈に応じたプライバシー評価や防御策の開発が必要であることを示唆しています。