ペンシルバニア州立大学とオレゴン州立大学の研究者による調査によれば、一般の人々はAIシステムのトレーニングデータにおける代表性の欠如が、バイアスのあるパフォーマンスをもたらすことを理解していないことが示されました。この研究では、喜びを表現する際に白人の顔のみを使用したデータと、不幸を表現する際に黒人の顔のみを使用したデータが分析されました。多くの参加者は、特に悪影響を受けているグループに該当しない限り、トレーニングデータのバイアスに気づきませんでした。また、研究者は、AIが人種を感情表現と関連付けることを学習してしまうことがあると指摘しており、これがバイアスの原因となっています。バイアスに気づいたのは、AIが特定のグループに対して偏ったパフォーマンスを示した場合に限られていました。研究は、AIシステムが全てのグループに対して公平に機能するように訓練されるべきだと強調しています。