本研究は、テキストから画像生成(T2I)モデルにおける社会的バイアスの潜在空間への刻印を調査します。特に、これらのモデルが人種や性別に関連するステレオタイプを再生・増幅する懸念が高まっています。人気のある5つのオープンソースモデルを対象に、10種類の職業関連の中立的なプロンプトを用いて、5,000枚の画像を生成し、さまざまな人種と性別の評価者によって判定されました。結果として、看護や介護の職業は女性的に描かれ、CEOや医師などの高ステータスな職業は主に男性と白人に偏っていることが分かりました。また、モデルごとの特異なトレンドも明らかになり、これらの結果はAIプロジェクトマネージャーにとって、より公正なAIモデルの選択や、責任あるAIの原則に従った画像生成のためのカスタマイズされたプロンプトの構築に寄与するものです。バイアスのリスクと効果的な軽減戦略についても議論しています。