0%

Multi-class Classification(以三分类为例)

Multi-class Classification(以三分类为例)

Step 1

C1:w1,b1z1=w1x+b1C2:w2,b2z2=w2x+b2C3:w3,b3z3=w3x+b3

Step 2:Softmax计算各分类概率

C1:z1y1=ez1j=13ezjC2:z2y2=ez2j=13ezjC3:z3y3=ez3j=13ezj

softmax后所得到的 yi 满足:0<yi<1,iyi=1

why softmax

max仅仅是取最大值,而softmax则是对最大值做了强化。

指数e拉大了数据间的差距,强化大值,换言之,softmax使最大值的辨识度更高

< softmax的二分类情况就是sigmoid >

Step 3:交叉熵估计分布准确率

将计算所得的 y=[y1,y2,y3]T 与目标结果 y^=[y1^,y2^,y3^]T 作交叉熵:

i=13yi^lnyi

其中目标结果 y^ 由one-hot编码表示:

C1:y^=[1,0,0]TC2:y^=[0,1,0]TC3:y^=[0,0,1]T