大型言語モデル(LLM)の自動コード生成が広く利用される中、その出力の品質とセキュリティが重要な課題となっています。本研究では、一見問題のないが不適切に構成されたプロンプトが生成されるコードのセキュリティに与える影響について探究します。プロンプトの品質を評価するために、目標の明確性、情報の完全性、論理的一貫性の三つの次元からなる評価フレームワークを提案します。このフレームワークに基づき、CWE-BENCH-PYTHONという大規模なベンチマークデータセットを公開しました。実験の結果、プロンプトの規範性が低下するにつれて、不安全なコードが生成される可能性が一貫して増加することが明らかになりました。また、Chain-of-Thoughtや自己修正といった高度なプロンプト技術が低品質なプロンプトによるセキュリティリスクを軽減する効果も示されました。これらの発見は、ユーザープロンプトの品質向上がAI生成コードのセキュリティ強化において重要な戦略であることを示唆しています。