自動運転やロボティクスにおいて、道路の安全性と信頼性のある意思決定は、アウト・オブ・ディストリビューション(OOD)セグメンテーションに依存しています。本研究では、視覚と言語の空間を活用した新しいアプローチを提案し、複雑な運転シナリオにおける異常物体の認識を改善します。具体的には、テキスト駆動型のOODセグメンテーションモデルを訓練し、視覚と言語の情報を調整することで、未見の物体に効果的に一般化することを目指します。さまざまなセマンティック距離に基づいたプロンプトを利用し、OOD表現に対してセマンティック拡張を行います。実験は公開されたOODセグメンテーションデータセットで行われ、ピクセルレベルおよびオブジェクトレベルでの評価において最先端の性能を示しました。これにより、視覚と言語に基づくOODセグメンテーションの将来の自動運転システムにおける安全性と信頼性の向上の可能性を強調しています。