Last Updated:2025/11/25
When genderizing the dataset without considering nonbinary identities, researchers can produce biased outcomes in machine learning models.
See correct answer
When genderizing the dataset without considering nonbinary identities, researchers can produce biased outcomes in machine learning models.
音声機能が動作しない場合はこちらをご確認ください
Edit Histories(0)
Source Sentence
研究者がデータセットに性別を割り当てる際に非二元のアイデンティティを考慮しないと、機械学習モデルが偏った結果を生み出すことがあります。