自動可読性評価は、効果的でアクセス可能な文書コミュニケーションを確保する上で重要な役割を果たしますが、可読性の定義や測定が一貫していないことが障害となります。本研究では、897件の判断を分析し、表面的な手がかりだけでなく情報内容やテーマがテキストの理解可能性に強く影響することを発見しました。また、5つの英語データセットにわたる15の一般的な可読性メトリクスと、6つのよりニュアンスのあるモデルベースメトリクスを評価しました。その結果、4つのモデルベースメトリクスが人間の判断との順位相関で常にトップ4に入ることが示され、従来のメトリクスの中で最も成績が良いものでも平均順位は8.6に留まりました。この調査結果は、現在の可読性メトリクスと人間の認識との不一致を浮き彫りにし、モデルベースアプローチの有望さを示しています。