基础
以下所有“向量”代表列向量每一个样本点xxx都是一个向量,多个样本组成矩阵X=[x0,x1,...,xn]X=[x_0, x_1,...,x_n]X=[x0,x1,...,xn]向量
向量的坐标代表向量在指定基下的投影:a=[e1,e2,e3]T[a1,a2,a3]a=[e_1,e_2,e_3]^T[a_1,a_2,a_3]a=[e1,e2,e3]T[a1,a2,a3]向量点积/内积/数量积:a⋅b=aTb=∑iCaibi=∣a∣∣b∣cosθa·b =a^Tb=\sum^C_ia_ib_i=|a||b|cos\thetaa⋅b=aTb=∑iCaibi=∣a∣∣b∣cosθ,θ\thetaθ为a,ba,ba,b夹角 内积代表一个向量在另一个向量上的投影 向量aaa的反对称矩阵AAA:a=[a1a2a3],A=a∧=[0−a3a2a30−a1−a2a10]a=\left[ \begin{array}{c} a_1 \\ a_2 \\ a_3\end{array}\right],A=a^\wedge=\left[ \begin{array}{c} 0 & -a_3 & a_2 \\ a_3 & 0 & -a_1 \\ -a_2 & a_1 & 0 \end{array}\right]a=⎣⎡a1a2a3⎦⎤,A=a∧=⎣⎡0a3−a2−a30a1a2−a10⎦⎤ 反对称矩阵满足:AT=−AA^T=-AAT=−A 向量外积: 外积是一个垂直于俩向量的向量,大小为∣a∣∣b∣sin(a,b)|a||b|sin(a,b)∣a∣∣b∣sin(a,b)信息量
横坐标为概率ppp,则对应纵坐标信息量i=−logpi=-logpi=−logp,反映事件让人惊讶的程度(不确定性)熵
某个事件对应的信息量的期望传统算法
线性回归
寻找一个权重www和偏置bbb,使得wTX+bw^TX+bwTX+b最接近目标值YYY。相当于拟合一条直线(或一个超平面),让所有样本在直线上的取值与真实值最接近。举个例子,二维情况下,www相当于斜率k∈Rk∈\mathbb{R}k∈R,bbb相当于截距。
输入:样本矩阵X∈RC×NX∈\mathbb{R}^{C×N}X∈RC×N,目标值(ground truth)Ygt∈R1×NY_{gt}∈\mathbb{R}^{1×N}Ygt∈R1×N输出:权重w∈RC×1w∈\mathbb{R}^{C×1}w∈RC×1,偏置b∈Rb∈\mathbb{R}b∈R
推导
Y=wTX+b∈R1×NY=w^TX+b∈\mathbb{R}^{1×N}Y=wTX+b∈R1×N通过齐次形式把bbb整合进www,w=[wb]∈R(C+1)×1,X=[X1]∈R(C+1)×Nw=\left[ \begin{array}{c} w \\ b\end{array}\right]∈\mathbb{R}^{(C+1)×1},X=\left[ \begin{array}{c} X \\ 1\end{array}\right]∈\mathbb{R}^{(C+1)×N}w=[wb]∈R(C+1)×1,X=[X1]∈R(C+1)×NY=wTX∈R1×NY=w^TX∈\mathbb{R}^{1×N}Y=wTX∈R1×N这里可通过最小二乘获得最优参数的解析解Loss=∑(ygt−y)2=(Ygt−wTX)(Ygt−wTX)T∈R+Loss=\sum(y_{gt}-y)^2=(Y_{gt}-w^TX)(Y_{gt}-w^TX)^T∈\mathbb{R}^{+}Loss=∑(ygt−y)2=(Ygt−wTX)(Ygt−wTX)T∈R+∂Loss∂w=2(wTX−Ygt)XT∈R(C+1)×1\frac{\partial Loss}{\partial w}=2(w^TX-Y_{gt})X^T∈\mathbb{R}^{(C+1)×1}∂w∂Loss=2(wTX−Ygt)XT∈R(C+1)×1令偏导为0002(wTX−Ygt)XT=02(w^TX-Y_{gt})X^T=02(wTX−Ygt)XT=0wTXXT=YgtXTw^TXX^T=Y_{gt}X^TwTXXT=YgtXTw=(YgtXT(XXT)−1)Tw=(Y_{gt}X^T(XX^T)^{-1})^Tw=(YgtXT(XXT)−1)Tw=(XXT)−1XYgtTw=(XX^T)^{-1}XY_{gt}^Tw=(XXT)−1XYgtT逻辑回归
逻辑回归是分类算法,相当于全连接加sigmoidsigmoidsigmoid激活的单层神经网络。
输入:样本矩阵X∈RC×NX∈\mathbb{R}^{C×N}X∈RC×N,每个样本对应的类别输出:权重w∈RC×1w∈\mathbb{R}^{C×1}w∈RC×1,偏置b∈Rb∈\mathbb{R}b∈R
推导
给出样本矩阵X∈RC×NX∈\mathbb{R}^{C×N}X∈RC×N过一层全连接+sigmoidsigmoidsigmoid得到输出:Y=sigmoid(wTX+b)∈(0,1)1×NY=sigmoid(w^TX+b)∈(0,1)^{1×N}Y=sigmoid(wTX+b)∈(0,1)1×N sigmoid(x)=11+e−xsigmoid(x)=\frac{1}{1+e^{-x}}sigmoid(x)=1+e−x1 将YYY作为属于正样本的概率,则1−Y1-Y1−Y为负样本概率利用极大似然估计(MLE)构造目标函数,使得所有样本对应类别出现的联合概率最大 arg maxw,b(log∏iNPi),Pi={YiXi是正样本1−YiXi是负样本\underset {w,b}{\operatorname {arg\,max} }(log\prod_i^N P_i),P_i=\begin{cases}Y_i & X_i是正样本\\1-Y_i &X_i是负样本\end{cases}w,bargmax(log∏iNPi),Pi={Yi1−YiXi是正样本Xi是负样本 等价于最小化信息量之和:Loss=∑iN−logPiLoss=\sum_i^N-logP_iLoss=∑iN−logPiSVM
SVM希望找到一个超平面用于划分样本,使得各类别距离超平面最近的样本点xix_ixi距离超平面最远。
输入:样本矩阵X∈RC×NX∈\mathbb{R}^{C×N}X∈RC×N,每个样本对应的类别输出:超平面权重w∈RC×1w∈\mathbb{R}^{C×1}w∈RC×1,超平面偏置b∈Rb∈\mathbb{R}b∈R