不是所有的知识,都可以叫做真理
- 关键词:面试总结 – 机器学习
一、SVM
讨论线性判别分析与线性核支持向量机在何种条件下等价
高斯核SVM与RBF神经网络之间的联系
SVM对噪声敏感的原因
KKT条件
设计一个能显著减少SVM中支持向量的数目而不显著降低泛化性能的方法
二、集成学习
GradientBoosting是一种常用的Boosting算法,试分析其与AdaBoost的异同
试分析随机森林为何比决策树Bagging集成的训练速度更快
试设计一种能提升k近邻分类器性能的集成学习算法
三、聚类
试分析AGENS算法使用最小距离和最大距离的区别
试设计一个能自动确定聚类数的改进k均值算法
四、降维和度量学习
在实践中,协方差矩阵的特征值分解常由中心化后的样本矩阵X的奇异值分解代替,试述其原因
试述核化线性降维与流行学习之间的联系及优缺点
四、特征选择与稀疏学习
试分析岭回归和支持向量机的联系
试述字典学习与压缩感知对稀疏性利用的异同
####