この記事では、大規模言語モデル(LLM)が自然言語の理解と生成、画像認識、多モーダルタスクにおいて卓越した能力を示していることを紹介しています。著者らは、プロンプトエンジニアリング、知識強化型検索拡張生成、ファインチューニング、プレトレーニング、ツール学習など、LLMを支える中核技術を包括的にレビューしています。また、科学の科学(SciSci)の歴史的発展を辿り、科学計量学領域におけるLLMの潜在的な応用について展望を示します。さらに、科学評価のためのAIエージェントモデルの可能性や、LLMを用いた新たな研究フロントの特定や知識グラフの構築手法についても議論しています。