TensorFlow与深度学习
1.以下关于深度学习描述正确的是 -深度学习是机器学习的一个分支。
2.传统机器学习和深度学习是人工智能核心技术,在工程流程上略有差别,以下步骤在深度学习中不需要做的是-特征工程。
3.是指根据文本所表达的含义和情感信息将文本划分成褒扬的或贬义的两种或几种类型,是对文本作者倾向性和观点、态度的划分,因此有时也称倾向性分析。-情感分类。
4.若输入x1=1,x2=0,对应的权值分别为0.5,0.5,则经过过sign函数后的值是多少?( 1 )
5.相比sigmoid激活函数,relu激活函数有什么优势?(防止梯度消失、Relu输出具有稀疏性、Relu函数简繁计算速度快)
6。如果我们希望预测n个类(p1,p2 … pk)的概率使得所有n的p的和等于1,那么下列哪个函数可以用作输出层中的激活函数?( softmax )
7.Sigmoid是神经网络中最常用到的一种激活函数,除非当梯度太大导致激活函数被弥散,这叫作神经元饱和。这就是为什么ReLU会被提出来,因为ReLU可以使得梯度在正向时输出值与原始值一样。这是否意味着在神经网络中ReLU单元永远不会饱和?(×)
8.您正在构建一个用于识别黄瓜(y=1)和西瓜(y=0)的二进制分类器。您建议将这些激活函数中的哪一个用于输出层?( sigmoid)
9.下列有关单层感知器的说法错误的是?( 包含输入层、隐藏层、输出层)
10.在一个神经网络中,知道每一个神经元的权重和偏差是最重要的一步。如果知道了神经元准确的权重和偏差,便可以近似任何函数,但怎么获知每个神经的权重和偏移呢( 赋予一个初始值,然后检查更最佳值得差值,不断迭代调整权重 )
11.假设神经元的输入值为(1,2,3),对应的权重为4,5,6,神经元经过一个线性函数y=2x,最终的输出结果是多少( 64)
12.在选择神经网络的深度时,下面哪些参数需要考虑?( 1 2 3 4 5 )
1 神经网络的类型(如MLP,CNN)
2 输入数据
3 计算能力(硬件和软件能力决定)
4 学习速率
5 映射的输出函数
13.前馈神经网络是指网络只能前向传播,不能后向传播,这句话是否正确( ×)
14.对于前向神经网络,输入层中的节点数为10,隐藏层为5。从输入层到隐藏层的最大连接数是( 50)
15.假定你在神经网络中的隐藏层中使用激活函数 X。在特定神经元给定任意输入,你会得到输出「-0.0001」。X 可能是以下哪一个激活函数?( tanh(x))
16.一个完成的反向传播的步骤是(2 3 1 )
1 将隐藏层误差反向传播给输入层,调节隐藏层到输入层的权值和阈值
2 将输出层的误差反向传播给隐藏层,调整隐藏层到输出层的权值和阈值
3 将隐藏层的误差反向传播给隐藏层,调节隐藏层到隐藏层的权值和阈值
17.在深度学习网络中,反向传播算法用于寻求最优参数,在反向传播算法中使用的什么法则进行逐层求导的-链式法则
18.单层的神经网络反向传播算法也适用多层神经网络的反向传播,这句话正确吗?( ×)
19.反向传播算法一开始计算什么内容的梯度,之后将其反向传播?( 预测结果与样本标签之间的误差)
20.梯度下降算法的正确步骤是什么?( 4 3 1 5 2)
1 计算预测值和真实值之间的误差
2 重复迭代,直至得到网络权重的最佳值
3 把输入传入网络,得到输出值
4 用随机值初始化权重和偏差
5 对每一个产生误差的神经元,调整相应的(权重)值以减小误差
21.深度学习中常用的损失函数有(均方误差损失函数、交叉熵误差损失函数)
22.感知器在空间中可以展现为?-超平面
23.当数据太大而不能同时在RAM中处理时,哪种梯度技术更有优势?( 随即梯度下降)
24.一个循环神经网络可以被展开成为一个完全连接的、具有无限长度的普通神经网络,这种说法是( √)
25.Dropout是一种在深度学习环境中应用的正规化手段。它是这样运作的:在一次循环中我们先随机选择神经层中的一些单元并将其临时隐藏,然后再进行该次循环中神经网络的训练和优化过程。在下一次循环中,我们又将隐藏另外一些神经元,如此直至训练结束。根据以上描述,Dropout技术在下列哪种神经层中将无法发挥显著优势?( RNN层 )
26.Dropout对一个神经元随机屏蔽输入权重这句话是否正确?( × )
27.数据规一化(Normalization)的好处都有啥?-让每一层的输入的范围都大致固定
28.在一个神经网络中,下面哪种方法可以用来处理过拟合?( dropout、分批归一化、正则化)
29.正则化是传统机器学习中重要 且有效的减少泛化误差的技术,以下技术属于正则化技术的是-L1正则化、L2正则化、Dropout
30.下列哪个不是自适应学习率优化器?(梯度下降优化器)
31.在深度学习模型训练的过程中,常见的优化器有哪些?-Adam、Adagrad、SGD、Momentum
32.在训练神经网络时,损失函数(loss)在最初的几个epochs时没有下降,可能的原因是?( )

-学习率太高、正则参数太高、陷入局部最小值
33.当神经网络的调参效果不好时,需要从哪些角度考虑?(1 2 3 4 5 )
1 是否找到合适的损失函数
2 batch size是否合适
3 是否选择了和是的激活函数
4 是否选择合适的学习率
5 是否过拟合
34.深度学习可以用在下列哪些NLP任务中?-情感分析、问答系统、机器翻译
35.梯度爆炸问题是指在训练深度神经网络的时候,梯度变得过大而损失函数变为无穷。在RNN中,下面哪种方法可以较好地处理梯度爆炸问题?( 梯度裁剪)
36.一个循环神经网络可以被展开成为一个完全连接的、具有无限长度的普通神经网络,这种说法是( √)。
37.关于循环神经网络以下说法错误的是?-LSTM无法解决梯度消失问题
38.关于循环神经网络,哪个不是LSTM的门?-更新门
39.以下关于标准 RNN 模型,说法正确的是?-会出现长时间传输记忆的信息衰减的问题
40.以下哪项任务优先选择使用卷积神经网络来实现-图像特征提取
41.图像识别常用的方案有那些-人脸检测、表情判断、动作识别、无人驾驶
42.10段彩色视频,每段视频帧数共300帧,分辨率960*640,这些视频片段可以保存在形状为_的张量中(10,300,960,640,3)
43.当在卷积神经网络中加入池化层(pooling layer)时,变换的不变性会被保留,是吗?( 是)
44.输入图像已被转换为大小为28×28的矩阵和大小为7×7的步幅为1的核心/滤波器,填充方式是valid 。卷积矩阵的大小是多少?( 22 x 22)
45.输入图片大小为200×200,依次经过一层卷积(kernel size 5×5,same padding ,stride 2),pooling(kernel size 3×3,valid padding ,stride 1),又一层卷积(kernel size 3×3,same padding,stride 1)之后,输出特征图大小为( 98 )
46.冻结 VGG16 的卷积基是为了能够在上面训练一个随机初始化的分类器。分类器已经训练好了,才能微调卷积基的顶部几层,微调网络的步骤是: (1) 在已经训练好的基网络(base network)上添加自定义网络。 (2) 训练所添加的部分。(3) 冻结基网络。 (4) 解冻基网络的一些层。 (5) 联合训练解冻的这些层和添加的部分-1 3 2 4 5
47.一个32X32大小的图像,通过步长为4,尺寸为4X4的池化运算后,尺寸变为(8x8)
本文来自互联网用户投稿,文章观点仅代表作者本人,不代表本站立场,不承担相关法律责任。如若转载,请注明出处。 如若内容造成侵权/违法违规/事实不符,请点击【内容举报】进行投诉反馈!
