《BAT机器学习面试题目精选系列》汇集了百度、阿里和腾讯等顶级互联网公司在招聘数据科学家与机器学习工程师时的经典面试题,旨在帮助求职者深入理解并掌握机器学习领域的核心知识和技能。
BAT机器学习面试1000题系列 1 前言
2 归一化为什么能提高梯度下降法求解最优解的速度?
3 归一化有可能提高精度。
4 归一化的类型:
1)线性归一化。
2)标准差标准化。
3)非线性归一化。
5 什么是熵。机器学习 ML基础 易
6 熵的引入
7.1 无偏原则
56 什么是卷积。深度学习 DL基础 易
池化,简言之,即取区域平均或最大值(如下图所示)。
随机梯度下降
批量梯度下降
随机梯度下降
具体步骤:
引言
721 深度有监督学习在计算机视觉领域的进展
7.1 图像分类(Image Classification)
7.2 图像检测(Image Detection)
7.3 图像分割(Semantic Segmentation)
7.4 图像标注–看图说话(Image Captioning)
7.5 图像生成–文字转图像(Image Generator)
8 强化学习(Reinforcement Learning)
9 深度无监督学习(Deep Unsupervised Learning)–预测学习
9.1 条件生成对抗网络(Conditional Generative Adversarial Nets,CGAN)
9.2 视频预测
总结
参考文献
一、从单层网络谈起
二、经典的RNN结构(N vs N)
三、N VS 1
四、1 VS N
五、N vs M
Recurrent Neural Networks
长期依赖(Long-Term Dependencies)问题
LSTM 网络
LSTM 的核心思想
逐步理解 LSTM
LSTM 的变体
结论
196 L1与L2范数。机器学习 ML基础 易
218 梯度下降法的神经网络容易收敛到局部最优,为什么应用广泛?深度学习 DL基础 中
219 请比较下EM算法、HMM、CRF。机器学习 ML模型 中
223 Boosting和Bagging
224 逻辑回归相关问题
225 用贝叶斯机率说明Dropout的原理
227 共线性是什么,与过拟合有什么关联?
共线性:多变量线性回归中,变量之间由于存在高度相关关系而使回归估计不准确。
共线性会造成冗余,导致过拟合。
解决方法:排除变量的相关性/加入权重正则。
勘误记
后记