Character.AIは、未成年者との無制限な対話を終了することを発表しました。これは、何人かの10代が同社のAIチャットボットとの長時間の会話の後に自殺したことに関連しています。新たにCEOのカランディープ・アナンドは、18歳未満のユーザーがオープンエンドのチャットを行うことを禁止し、代わりにストーリーを共同で作成したり、ビジュアルを生成したりすることを促進するロールプレイプラットフォームへ移行する方針を示しました。この変更は11月25日から実施され、利用制限を設けるための年齢確認ツールも導入されます。アナンドは、今回の変更が反発を招くと予測しつつも、安全性を優先すると強調しています。