2,852
社区成员




对于神经网络而言,在输入特征多数为categorical类别变量时,使用onehot会使维度大大增加,使用onehot真的比直接用离散数字表示好吗?
分类问题里,损失函数经常定义为预测值和真实值的误差平方和。离散数字编码之后,3被预测称1的损失是比3预测称2更大的(与现实不符)。而onehot则保证了不同的类别距离相同。因此onehot对不同的分类更适合。当然实际生活中有许多分类变量也带有距离的含义(比如职称),所以标准基乘上系数可能会更好。当然最后还是要结合实际情况。我个人感觉类别不多的时候,二者差距不大。