问题1:逻辑回归和SVM的异同

LR与SVM的相同点:

  1. 都是有监督的分类算法;
  2. 如果不考虑核函数,LR和SVM都是线性分类算法。
  3. 它们的分类决策面都是线性的。
  4. LR和SVM都是判别式模型。

LR与SVM的不同点:

  1. 本质上是loss函数不同,或者说分类的原理不同。
  2. SVM是结构风险最小化,LR则是经验风险最小化。
  3. SVM只考虑分界面附近的少数点,而LR则考虑所有点。
  4. 在解决非线性问题时,SVM可采用核函数的机制,而LR通常不采用核函数的方法。
  5. SVM计算复杂,但效果比LR好,适合小数据集;LR计算简单,适合大数据集,可以在线训练。

文末免费送电子书:七月在线干货组最新 升级的《2021最新大厂AI面试题》免费送!

问题2:LR的参数可以初始化0 吗?

可以。

在逻辑回归中,

因此在LR的反向传播中,我们假设w=[w1,w2]Tw=[w_1,w_2]^Tw=[w1,w2]T,则

因而

可以看出,就算初始w1,w2,bw_1,w_2,bw1,w2,b设为0,后续梯度还是会更新的。

问题3:CNN中[1,1]卷积核的作用

  1. 实现跨通道的交互和信息整合
  2. 进行卷积核通道数的降维和升维
  3. 对于单通道feature map 用单核卷积即为乘以一个参数,而一般情况都是多核卷积多通道,实现多个feature map的线性组合
  4. 可以实现与全连接层等价的效果。如在faster-rcnn中用1x1xm的卷积核卷积n(如512)个特征图的每一个位置(像素点),其实对于每一个位置的1x1卷积本质上都是对该位置上n个通道组成的n维vector的全连接操作。

问题4:详细介绍下Batch Normolization

BN(Batch Normolization)是Google提出的用于解决深度网络梯度消失和梯度爆炸的问题,可以起到一定的正则化作用。我们来说一下它的原理:

批规范化,即在模型每次随机梯度下降训练时,通过mini-batch来对每一层卷积的输出做规范化操作,使得结果(各个维度)的均值为0,方差为1。

BN操作共分为四步。输入为xix_ixi,第一步计算均值:

第二步计算数据方差:

第三步进行规范化:

第四步尺度变换和偏移:

mmm表示mini-batch中的数据个数,可以看出,BN实际就是对网络的每一层都进行白化操作。白化操作是线性的,最后的“尺度变换和偏移”操作是为了让BN能够在线性和非线性之间做一个权衡,而这个偏移的参数γ\gammaγ和 β\betaβ 是神经网络在训练时学出来的

经过BN操作,网络每一层的输出小值被“拉大”,大值被“缩小”,所以就有效避免了梯度消失和梯度爆炸。总而言之,BN是一个可学习、有参数(γ、β)的网络层。

问题5:ROC与AUC

AUC是一种模型分类指标,且仅仅是二分类模型的评价指标。AUC是Area Under Curve的简称,那么Curve就是 ROC(Receiver Operating Characteristic),翻译为"接受者操作特性曲线"。也就是说ROC是一条曲线,AUC是 一个面积值。

七月【图像分类与图像搜�