本論文では、機械学習(ML)が公衆衛生を革新する可能性を持ちながらも、アルゴリズムバイアスの問題に注意を払わなければ既存の健康格差を悪化させるリスクがあることを指摘しています。2021年から2025年のオランダの公衆衛生に関するML研究を対象に、アルゴリズムバイアスの特定と報告に関する文献レビューを行い、リスク評価ツールRABATを開発しました。35の査読済み研究の分析では、データ sampling や欠測データについては文献化されているものの、公平性の枠組みやサブグループ分析が欠如していることが明らかになりました。そのため、新たに提案した4段階の公平性フレームワークACARを用いて、研究者がMLライフサイクル全体で公平性に取り組む方法を示しました。最終的に、アルゴリズムの革新が健康の公平性を進めるよう、MLの実践者に向けた具体的な提言を行っています。