Multi-class Classification(以三分类为例) 发表于 2021-03-24 分类于 Machine Learning Multi-class Classification(以三分类为例)Step 1C1:w1,b1→z1=w1⋅x+b1C2:w2,b2→z2=w2⋅x+b2C3:w3,b3→z3=w3⋅x+b3Step 2:Softmax计算各分类概率C1:z1→y1=ez1∑j=13ezjC2:z2→y2=ez2∑j=13ezjC3:z3→y3=ez3∑j=13ezjsoftmax后所得到的 yi 满足:0<yi<1,∑iyi=1 why softmaxmax仅仅是取最大值,而softmax则是对最大值做了强化。 指数e拉大了数据间的差距,强化大值,换言之,softmax使最大值的辨识度更高。 < softmax的二分类情况就是sigmoid > Step 3:交叉熵估计分布准确率将计算所得的 y=[y1,y2,y3]T 与目标结果 y^=[y1^,y2^,y3^]T 作交叉熵: −∑i=13yi^lnyi其中目标结果 y^ 由one-hot编码表示: C1:y^=[1,0,0]TC2:y^=[0,1,0]TC3:y^=[0,0,1]T