supervised learning

  • 贝叶斯估计

  • 决策树与信息熵

    • 信息熵 H ( D ) = − ∑ i = 1 n p ( X = x i ) l o g ( P ( X = x i ) ) = − ∑ p i l o g ( p i ) H(D)=-\sum_{i=1}^n p(X=x_i)log(P(X=x_i))=-\sum p_ilog(p_i) H(D)=i=1np(X=xi)log(P(X=xi))=pilog(pi),信息熵越大,(种类的)不确定度越大,H(D)=0,样本完全确定
    • 对分类问题,按照信息熵 → \to 信息增益比= 1 H A ( D ) g ( D , A ) = 1 H A ( D ) ( H ( D ) − H ( D , A ) ) \frac 1{H_A(D)}{g(D,A)=\frac 1 {H_A(D)} (H(D)-H(D,A))} HA(D)1g(D,A)=HA(D)1(H(D)H(D,A))最大化的原则选择特征,逐级下降形成决策树,
    • 据信息熵的有ID3,C4.5 alg
    • ifC(Tson)>C(Tpat),cut Tson,有CART算法,对regression question,select j,s to minimize ∑ x ∈ R 1 ( j , s ) ( y i − c 1 ) 2 + ∑ x ∈ R 2 ( j , s ) ( y 2 − c 2 ) 2 \sum_{x\in R_1(j,s)} (y_i-c_1)^2+\sum_{x\in R_2(j,s)}(y_2-c_2)^2 xR1(j,s)(yic1)2+xR2(j,s)(y2c2)2
    • to sorting problem,based on G i n i A ( D ) Gini_A(D) GiniA(D)(similar to information entropy),select A to minimize Gini(D),剪枝,select best tree
    • statistic learning outlook-LMLPHP
  • logistic

    • logistic采用极大似然估计,和最大熵模型 − ∑ P ~ ( x ) P ( y ∣ x ) l o g P ( y ∣ x ) -\sum\widetilde{P}(x)P(y|x)logP(y|x) P (x)P(yx)logP(yx)(其中P(y|x)满足 E P ( f i ) = E P ~ ( f i ) E_P(f_i)=E_{\widetilde P}(f_i) EP(fi)=EP (fi)),求 m i n P ∈ C   m a x w L ( P , w ) \underset{P\in C}{min}\ \underset{w}{max}L(P,w) PCmin wmaxL(P,w)
    • 对偶问题, m a x w   m i n P ∈ C L ( P , w ) \underset{w}{max}\ \underset{P\in C}{min}L(P,w) wmax PCminL(P,w)
    • m i n P ∈ C L ( P , w ) \underset{P\in C}{min}L(P,w) PCminL(P,w) ,对P(y|x)求导,转化为求 m a x w   ψ ( w ) \underset{w}{max}\ \psi(w) wmax ψ(w)
    • 这一步用improved iterative scaling求 L ( w ) = ∑ x , y P ~ ( x , y ) ∑ i = 1 n w i f i ( x , y ) − ∑ x P ~ ( x ) l o g Z w ( x ) L(w)=\underset{x,y}{\sum}\widetilde P(x,y)\sum_{i=1}^{n}w_if_i(x,y)-\underset{x}{\sum}\widetilde P(x)logZ_w(x) L(w)=x,yP (x,y)i=1nwifi(x,y)xP (x)logZw(x)关于w的极大值,或用拟牛顿法
  • SVM

    • 硬间隔支持向量机、软间隔支持向量机、非线性支持向量机(核方法)
  • Boost方法——组合权重不同的同一种分类器,得到强分类器

  1. Boost与前向分布算法的联系

  2. 二分类学习,boost 错误分类的sample weight和误差率低的分类器权重,可用加法模型、损失函数为指数函数、的前向学习算法解释

  3. 回归学习提升树,
    利用前向分布算法 f m ( x ) = f m − 1 ( x ) + T ( x ; Θ ( m ) ) , Θ ( m ) = a r g m i n Θ ( m ) ( L ( y , f m − 1 ( x i ) + Θ ( x i , Θ ( m ) ) f_m(x)=f_{m-1}(x)+T(x;\Theta(m)),\Theta(m)=arg \underset{\Theta(m)}{min}(L(y,f_{m-1}(x_i)+\Theta(x_i,\Theta(m)) fm(x)=fm1(x)+T(x;Θ(m)),Θ(m)=argΘ(m)min(L(y,fm1(xi)+Θ(xi,Θ(m))
    if loss function=均方误差损失, Θ m = ( R 1 , s 1 ) , . . . , ( R j , s j ) = y − f m − 1 ( x ) ; \Theta_m={(R_1,s_1),...,(R_j,s_j)}=y-f_{m-1}(x); Θm=(R1,s1),...,(Rj,sj)=yfm1(x);commonly ,由lagrange中值公式,残差用 ∂ L / ∂ f m − 1 ( x ) a p p r o a c h \partial L/\partial f_{m-1}(x)approach L/fm1(x)approach

    • EM——极大似然法的迭代求解(要选好初值点),正确性与收敛性的证明,求导干极值点,高斯混合模型的期望表示+极大化,期望极大值对应F函数的极大-极大,迭代可以用其他方式,可用于无监督学习?
  • recessive markov——根据隐变量表示出output的最大似然估计 P ( i , o ∣ θ ) P(i,o|\theta) P(i,oθ),计算其在 P ( i , o ∣ θ ‾ ) P(i,o|\overline\theta) P(i,oθ)下期望,\
    拉格朗日乘子法求极大值得\overline\theta,来估计o对应的i,

  • 维比特算法用动态规划求得state 1,2,…,T(近似alg不能保证整体most probably)

  • conditional random field——T为高维向量 ( X , Y w ) (X,Y_w) (X,Yw)的随机过程(x,t)

    根据状态特征 s l ( y i , x , w ) s_l(y_i,x,w) sl(yi,x,w)和transfer feature t k ( y i − 1 , y i , x , w ) t_k(y_{i-1},y_i,x,w) tk(yi1,yi,x,w)定义条件随机场P(y|x),可以用前向/back学习算法计算, P ( y i ∣ x )   a n d   P ( y i , y i + 1 ∣ x ) P(y_i|x)\ and\ P(y_i,y_{i+1}|x) P(yix) and P(yi,yi+1x),针对 P w ( y ∣ x ) P_w(y|x) Pw(yx)的极大似然估计,梯度下降迭代得w,维比特算法得 y ∗ = a r g m a x y P w ( y ∣ x ) y^*=arg max_{y} P_w(y|x) y=argmaxyPw(yx)

non-supervised learning

Preface
  1. 无监督学习有聚类,降维,用于数据分析/监督学习的前处理

statistic learning outlook-LMLPHP

  1. 监督学习的方法→层次聚类+k均值聚类
  2. SVD用于LSA,SVD用于PCA
LSA

  1. LSA👉PLSA,EM用于PLSA👉隐Markov model
  • 以p(z|x)、p(y|x)为参量,单词-文本的出现次数为因变量,对数似然估计,数值解
  1. 图的随机游走就是条件随机场吗?什么是PageRank
  • 普通的markov模型,(p1,…,pk)=(p1,…,pk)·A → 特征值分解后,类似裂项相消
  • 平稳分布的充要性?非周期,不可约
Stochastic P review

statistic learning outlook-LMLPHP

  • 问题与Improve——随机图上马尔科夫链未必具有平稳分布

​ ==?==添加一个等概率因子就可以避免

  • 什么是迭代计算→名字,什么是代数计算👉
  • R模型已定,如果让我门估计,未知数为参量,用对数似然或平方为损失函数,梯度下降极值得估计
SVD的性质
  1. 我们的终极Boss👉LDA
09-12 07:08