不是所有的知识,都可以叫做真理

  • 关键词:面试总结 – 机器学习

一、SVM

讨论线性判别分析与线性核支持向量机在何种条件下等价

高斯核SVM与RBF神经网络之间的联系

SVM对噪声敏感的原因

KKT条件

设计一个能显著减少SVM中支持向量的数目而不显著降低泛化性能的方法

二、集成学习

GradientBoosting是一种常用的Boosting算法,试分析其与AdaBoost的异同

试分析随机森林为何比决策树Bagging集成的训练速度更快

试设计一种能提升k近邻分类器性能的集成学习算法

三、聚类

试分析AGENS算法使用最小距离和最大距离的区别

试设计一个能自动确定聚类数的改进k均值算法

四、降维和度量学习

在实践中,协方差矩阵的特征值分解常由中心化后的样本矩阵X的奇异值分解代替,试述其原因

试述核化线性降维与流行学习之间的联系及优缺点

四、特征选择与稀疏学习

试分析岭回归和支持向量机的联系

试述字典学习与压缩感知对稀疏性利用的异同

####