题 1:L1 和 L2 的区别

L1范数(L1 norm)是指向量中各个元素绝对值之和。比如 向量A=[1,-1,3], 那么A的L1范数为 |1|+|-1|+|3|

简单总结一下就是:

  • L1范数: 为x向量各个元素绝对值之和
  • L2范数: 为x向量各个元素平方和的1/2次方,L2范数又称Euclidean范数或Frobenius范数
  • Lp范数: 为x向量各个元素绝对值p次方和的1/p次方

在支持向量机学习过程中,L1范数实际是一种对于成本函数求解最优的过程,因此,L1范数正则化通过向成本函数中添加L1范数,使得学习得到的结果满足稀疏化,从而方便人类提取特征。

  • L1范数可以使权值稀疏,方便特征提取。
  • L2范数可以防止过拟合,提升模型的泛化能力。

题 2:过拟合问题是如何产生的

过拟合的原因是:

  • 数据量太小
  • 模型复杂度太大
  • 数据质量很差
  • 过度训练

处理方法:

  1. 早停止:如在训练中多次迭代后发现模型性能没有显著提高就停止训练
  2. 数据集扩增:原有数据增加、原有数据加随机噪声、重采样
  3. 正则化,正则化可以限制模型的复杂度
  4. 交叉验证
  5. 特征选择/特征降维
  6. 创建一个验证集是最基本的防止过拟合的方法。我们最终训练得到的模型目标是要在验证集上面有好的表现,而不是训练集

题 3:二分查找的基本思想

「二分查找」的思想在我们的生活和工作中很常见,「二分查找」通过不断缩小搜索区间的范围,直到找到目标元素或者没有找到目标元素。

题 4:如何解决推荐系统冷启动问题

  1. 提供非个性化的推荐
    最简单的例子就是热门排行榜,我们可以给用户推荐热门排行榜,然后等到用户数据收集到一定的时候,再切换为个性化推荐。
  2. 利用用户注册信息
    用户注册时提供包括用户的年龄、性别、职业、民族、学历和居住地等数据,做粗粒度的个性化。有一些网站还会让用户用文字描述他们的兴趣。
  3. 利用社交网络信息
    引导用户通过社交网络账号登录(需要用户授权),导入用户在社交网站上的好友信息,然后给用户推荐其好友喜欢的物品。

题 5:决策树算法有哪些

ID3、C4.5、CART 树的算法思想

ID3 算法的核心是在决策树的每个节点上应用信息增益准则选择特征,递归地构架决策树。
C4.5 算法的核心是在生成过程中用信息增益比来选择特征。
CART 树算法的核心是在生成过程用基尼指数来选择特征。
基于决策树的算法有随机森林、GBDT、Xgboost 等。

题 6:降维的方法

随机森林(Random Forest)
反向特征消除(Backward Feature Elimination)
前向特征选择(Forward Feature Selection)
因子分析(Factor Analysis)
主成分分析(PCA)

题 7:Linux 里面查看文件有哪些命令

Linux 查看日志文件内容命令有:

cat 由第一行开始显示文件内容
tac 从最后一行开始显示,可以看出 tac 是 cat 的倒着写
nl 显示的时候,顺道输出行号!
more 一页一页的显示文件内容
less 与 more 类似,但是比 more 更好的是,他可以往前翻页!
head 只看头几行
tail 只看尾巴几行
你可以使用 man [命令]来查看各个命令的使用文档,如 :man cp。

题 8:PCA 是什么?实现过程是什么,意义是什么?

主成分分析 (PCA, principal component analysis)是一种数学降维方法, 利用正交变换 (orthogonal transformation)把一系列可能线性相关的变量转换为一组线性不相关的新变量,也称为主成分,从而利用新变量在更小的维度下展示数据的特征。

实现过程:
一种是基于特征值分解协方差矩阵实现PCA算法,一种是基于SVD分解协方差矩阵实现PCA算法。

意义:
使得数据集更易使用;降低算法的计算开销;去除噪声;使得结果容易理解。

12-09 15:55