1、在LetNet5网络中,卷积核的大小是?
答案:5*5
2、LeNet5网络参数的数量约为?
答案:6万
3、AlexNet与LeNet5相比,使用了哪些机制来改进模型的训练过程?
答案:
数据增广 | Dropout抑制过拟合 | ReLU激活函数 | CUDA加速神经网络训练 |
4、VGGNet使用的卷积核的大小是?
答案:3*3
5、神经网络的“退化”现象是指?
答案:随着网络深度的增加,模型的准确性会不升反降
6、导致神经网络“退化”的主要原因是?
答案:反向传播算法中的链式求导法则
7、下列哪种网络类型较好地解决了网络“退化”问题?
答案:ResNet
8、神经网络的学习率设置过大,容易导致:
答案:在最小值附近震荡,无法收敛
9、神经网络的学习率设置过小,容易导致:
答案:网络收敛速度慢
10、下列关于Keras序贯式模型的说法,正确的是?
答案:
网络层线性堆叠 | 构建简单、结构清晰 | 单输入、单输出 |
11、Keras中定义序贯式模型的类为:
答案:Sequential
12、Keras中典型的函数式模型应用为:
答案:多输入模型、多输出模型
13、Keras中,神经网络模型对象的方法包括:
答案:
fit | compile | predict | evaluate |
14、一个全连接层的参数数量与下列哪些因素有关?
答案:输入的连接数、本层神经元的个数
15、Keras中,下列哪个方法可以输出模型的信息?
答案:summary
16、多通道图像的卷积核也应该是多通道的。
答案:对
17、下列哪些属于Keras中的循环神经网络层类型?
答案:
GRU | MaxPool | SimpleRNN |
18、使用默认参数的池化层之后,特征图的尺寸将变为原来的:
答案:二分之一
19、卷积层的参数数量与哪些有关?
答案:
卷积核的个数 | 卷积核的形状 | 输入的特征图的数量 |
20、下列哪些属于图像数据增广的常见形式?
缩放 | 平移 |