在机器学习中,负样本远比正样本多,这是因为这种情况能更好地反映现实世界中的不平衡问题。
在实际情况中,许多问题都是需要进行分类的,但是正负样本的分布通常是不平衡的。如果正负样本的数量相同,学习模型则可能会倾向于偏向于多数类别,以此来最小化总的损失函数。
然而,我们需要更多的负样本,以便增加小类别的比例,使机器学习模型更加平衡,更全面地识别问题。