人工智能期末复习(背题家的落幕!)

文章目录

一、前言

小时候最喜欢的一集😿 内容比较多,有点小难捏
😅【满足我的小vanity】

二、选择题(10 X 2’)

1、补充

题目很多,基本上齐全了,列了三个梯队,重点看⭐⭐⭐,其余两队有印象即可 😆

2、第一梯队⭐⭐⭐

1、一般的多层感知器不包含哪种类型层次的神经元 ( 卷积层 )
2、以下关于Sigmoid的特点说法错误的是 (Sigmoid函数计算量小 )
3、下列不属于数据增强作用的是(避免欠拟合
4、假设一个卷积神经网络,第一个全连接层前的池化层输出为7x7x250,其展开的向量长度为?(12250
变式】如果改为12x12x250,则(36000)👉就是全部相乘
5、下面哪个条件能证明模型健壮性好(背景干扰、有遮挡、光照不同
6、以下关于目标检测算法的论述错误的是(rcnn、fast-rcnn、faster-rcnn算法都需要额外的selective search模块来捕获候选框
7、分水岭图像分割法属于哪一类分割方法( 基于区域的分割方法
8、下面关于深度学习网络结构的描述,正确的说法是哪个?(深层网络结构中,学习到的特征一般与神经元的参数量有关,也与样本的特征多寡相关
9、下面关于 GRU 模型说法错误的是( 上一时刻隐藏状态和候选信息做一个线性组合,二者的权重大小分别为 0.5,权重之和为 1
10、写出卷积操作后第二行的数据为(11,12,19,15

11、IoU是目标检测领域中的结果评测指标之一,上图中A框是物体的真实标记框,面积为9。B框是网络的检测结果,面积为6。两个框的重合区域面积为2。则IoU的值为( 2/13

12、现使用YOLO 网络进行目标检测,待检测的物体种类为10种,输入图像被划分成13*13个格子,每个格子生成2个候选框,则YOLO 网络最终的全连接层输出维度为( 3380)
【注】13X13X(5X2+10)=13X13X20=3380
这题应该不考,主要是YOLO,you only look once(你只能看一眼 👀),因为再看一眼就会爆炸 😹
13、在tensorflow中,以下定义常量的方法正确的是(a=tf.constant(2)
14、下面哪项不属于人工智能的应用( 扫码支付
15、引入了条件变量的是下列哪个GAN?(CGAN)
16、下面哪个不是GAN的应用? ( 百度翻译)

3、第二梯队⭐⭐

1、下面哪项跟近年来人工智能高速发展的原因有关(互联网技术、云计算、大数据
2、(分类)不属于无监督学习任务。
3、以下关于Tensorflow中张量的描述不正确的是(带小数点的数会被默认为int16类型
4、下列不属于数据增强方法的是(直接复制
5、GooleNet中的辅助分类器作用是(避免梯度消失)
6、InceptionV1架构中,1*1卷积层的主要作用是(防止梯度消失)
7、关于ResNet描述错误的是(可以通过不断加深网络层数来提高分类性能)
8、在 LSTM 的遗忘门中如何进行细胞状态的更新?(将需要忘记的信息与旧的状态进行乘积)
9、从一篇文章中提取一段话用来概括性描述这篇文章的技术属于(自动文摘
10、对同一个单词的不同形式进行识别并还原的过程称为( 词形还原

4、第三梯队⭐

1、以下关于感知器的说法错误的是(单层感知器可以用于处理非线性学习问题
2、以下关于学习率说法错误的是( 学习率【必须是固定不变】的)
3、关于BP算法特点描述错误的是 ( 计算之前【不需要】对训练数据进行归一化)
4、以下有关卷积神经网络的说法,哪个是错误的?(卷积核中的取值都是事先人工设计的,在网络的训练过程中【不变化】
5、下列关于双向 RNN 说法正确的是(双向 RNN 的结构与单向 RNN 的结构相似,都连着输出层,但是会比单向RNN 多出两个隐藏层
6、有关生成器和判别器的交叉嫡代价函数,以下哪个说法是错误的?(当训练生成器时,希望判别器的输出越逼近0越好)
7、下列关于生成对抗网络的描述错误的是( 既然生成对抗网络是无监督模型,则【不需要】任何训练数据)

三、判断题(10 X 1’)

1、错误的

看看错的有哪些就行 ,有的(一眼假)我就做了个分类🙂

1、跨物种语义级别的图像分类,类间方差小,因此一般要求图像分辨率高。(X)
2、两步走”类算法都是先识别再选择候选区域。 (X)
3、矩阵运算中的矩阵乘法满足交换律。 (X)
4、感知器模型中用到的激活函数通常是线性的。 (X)
5、R-CNN在做候选框选择这一步的时候是使用卷积神经网络做的。 (X)
6、用于预测的新数据可以从训练数据中获取。 (X)
7、在训练数据集上模型执行的很好,说明是个好模型。 (X)
8、感知器可以解决二次函数型的回归预测问题。 (X)
9、在keras中训练模型可以使用model.train()方法。 (X)
10、VGG16网络有16层卷积层。 (X)【】:是13层
11、智能体下一时刻的状态不仅与当前状态有关,还与上一时刻状态有关。(X)
12、Inception架构是VGG16网络的核心架构。(X)

下面的一眼假😮

1、卷积神经网络使用的都是局部连接,没有全连接。(X)
2、用于分类的数据集,不同类别数据数量相差很大不会对模型产生影响(X)
3、神经网络的层数越多,在数据集上的表现就越好。(X)
4、循环神经网络的反向误差会随着层数的增加而增加。(X)
5、自动驾驶只是一种简单的模拟人类驾驶的技术,不属于人工智能。(X)
6、运算能力的高低对人工智能影响很小。(X)
7、人工智能技术可以做到车辆的精确识别,永远不会出错。(X)
8、机器学习只有监督学习一种方法。(X)
9、一个感知器单元可以接收多个输入但只能产生一个输出给下一层的感知器。(X)
10、在神经网络的训练过程中,学习率设置的越大越好。(X)
11、模型评估只需要输入测试数据即可,不需要标签。(X)
12、卷积神经网络使用的都是局部连接,没有全连接。(X)
13、用于分类的数据集,不同类别数据数量相差很大不会对模型产生影响(X)
14、YOLOv2中没有使用锚框。(X)
15、YOLOv1中可以进行多尺寸图片训练。 (X)

2、正确的

正确的瞅一眼就行🙄

1、人工智能主要涉及的数学理论有线性代数、微积分、概率论和数理统计等(√)
2、局部响应归一化可以让相应比较大的值变得相对更大,并抑制其他反馈较小的神经元,增强模型的泛化能力。(√)
3、Inception架构是通过增加网络宽度来提高网络准确率的。(√)
4、ReLU激活函数是一种常见的激活函数,它的特性是:当输入值x小于0时,输出值y是0(√)
5、keras中加载训练、测试数据用的函数是load_data()。(√)
6、反向传播算法其实是将输出层的损失,从输出层往后传播逐步分配给各个层,并用梯度下降算法对各个层的权重参数进行更新。(√)
7、CPU模型训练运行速度不如GPU,是因为CPU单元不能同时运算,有的需要负责控制,有的负责缓存。(√)
8、人工智能之所以能在近年来掀起新一轮高潮,主要是因为三大驱动要素:算法、大数据、运算能力。(√)
9、淘宝会根据我们以前的购物的喜好推荐其他产品,也是人工智能的一种应用。(√)
10、深度学习可以说是机器学习的一个子集,机器学习是人工智能的一个子集。(√)
11、神经网络的输入层和输出层中神经元个数往往是固定的,在问题和数据集输入确定以后,输入层和输出层的神经元个数往往也就确定下来了,而隐藏层中的神经元个数可以人为改变。(√)
12、反向传播算法其实是将输出层的损失,从输出层往后传播逐步分配给各个层,并用梯度下降算法对各个层的权重参数进行更新。(√)
13、梯度下降算法是一种常用的优化器。(√)
14、使用Anaconda可以方便的管理多python编程环境,尤其是在CPU和GPU版本算法环境进行切换时非常方便。(√)
15、局部响应归一化可以让相应比较大的值变得相对更大,并抑制其他反馈较小的神经元,增强模型的泛化能力。(√)
16、加入dropout层可以防止模型过拟合(√)
17、Inception架构是通过增加网络宽度来提高网络准确率的。(√)
18、Fast R-CNN 算法中使用 Softmax 替代 SVM 进行分类。(√)

四、程序填空题(10 X 3’)

1、tensorflow搭建模型

使用tensorflow的高阶API—keras搭建模型,请将下面代码补充完整

#创建一个Sequential模型
model=tf.keras. Sequential()
#创建一个全连接层,神经元个数为368,输入神经元个数为784,激活函数为sigmoid
model.add(tf.keras.layers.Dense(368,activation=‘sigmoid’,input_dim=784))

2、keras模型编译

使用keras对模型进行编译,请将下列代码补充完整

optimizer=tf.keras.optimizers.Adam(learning_rate=0.0001)
lossfunction=tf.keras.losses.sparse_categorical_crossentropy,
metrics=[tf.keras.metrics.sparse_categorical_accuracy]
model.compile(optimizerlossfunctionmetrics)

这题没啥意义…把上面出现的三单词填进来 🥱

3、Pytorch的cat()函数操作

a=torch.rand((5,4))
b=torch.rand((5,4))
c=torch.cat((a,b),dim=1)
d=torch.cat((a,b),dim=0)
print(c.shape)
print(d.shape)
运行结果:
torch.size([58])
torch.size([104])

记住dim=0是行,dim=1是列,这题就是说ab都是5行4列,c就是列扩展,d就是行扩展了【可能考rand、dim、reshape的空】 🥴

4、 keras函数使用ReLU激活函数

def make_generator_model():
model = tf.keras.Sequential()
model.add(layers.Dense(77256, use_bias=False, input_shape=(100,)))
#/添加批归一化层
model.add(layers.BatchNormalization ( )
model.add(layers.Reshape((7, 7, 256)))
assert model.output_shape = = (None, 7, 7, 256)
#添加转置卷积层,卷积核数量128个,卷积核大小5×5
model.add(layers.Conv2DTranspose(128, (5, 5), strides=(1, 1), padding=‘same’, use_bias=False))
assert model.output_shape = = (None, 7, 7, 128)
#使用LeakyReLU激活函数
model.add(layers.LeakyReLU())
model.add(layers.Conv2DTranspose(64, (5, 5), strides=(2, 2), padding=‘same’, use_bias=False))
assert model.output_shape = = (None, 14, 14, 64)
model.add(layers.Conv2DTranspose(1, (5, 5), strides=(2, 2), padding=‘same’, use_bias=False, activation=‘tanh’))
assert model.output_shape = = (None, 28, 28, 1)
return model

这题可能不考,就记这三个空罢,题目里面有对照着抄,放自己一马 🥵

5、OpenCV 实现图像固定國值分割【P167】

!](https://img-blog.csdnimg.cn/deb7a8dedfe74bee98d21a8d514d9191.png

就记划线的地方罢,考threshold这种函数就太初生了 😱

6、keras搭建YOLOv3与CNN模型

这里是引用

还是一样,就只看看数字的部分,如果考到的话 😥

五、简答题(4 X 5’)

1、卷积层和池化层作用

卷积神经网络结构中,卷积层和池化层的作用分别是什么?

🧐答:卷积层:运用卷积操作提取特征;
池化层:缩小特征图的尺寸,减少计算量。

2、模型的健壮性

模型的健壮性应该从哪些方面判断?至少列出4条

🧐答:不同视角、不同大小、形变、遮挡、不同光照、背景干扰、同类异形。

3、Inception架构

GoogLeNet的核心Inception架构,采用并行的方式将4个成分的运算结果在通道上组合。这4个运算分别是什么?其体现的主要思想是什么?

🧐答:①1×1卷积 ;②3×3卷积 ; ③5×5卷积 ; ④3×3池化。
Inception架构的主要思想是找出如何用密集成分来近似最优的局部稀疏结构

4、YOLOV3和YOLOV2相比

简述YOLOV3相比于YOLOV2有哪些优点?

🧐答:一、 类别预测更加灵活,模型中用多个Sigmoid分类器,可以解决多分类问题;
二、多尺度预测,YOLOv3采用先上采样再融合,里面融合了3个尺寸,然后在多个特征图上做检测。

5、生成对抗网络(GAN)含义

简述生成对抗网络(GAN)的目标函数含义?

🧐答:判别器D希望尽可能区分真实样本和生成器 G生成的样本,因此希望D(x)尽可能大、 D(G(z))尽可能小,即V(D,G)尽可能大。生成器 G希望生成的样本尽可能骗过D,希望D(G(z))尽可能大,即V(D,G)尽可能小。两个模型相互对抗,最终达到全局最优。

看到简答题又活过来了,明天上午考完再背背捏 🤤
如果在简答题里放一个卷积计算题,阁下又该如何应对呢?前面选择题有的 🤡

六、编程题(1 X 20’)

1、训练卷积神经网络

使用keras搭建网络模型,使用relu激活函数

(1)创建一个Sequential模型

model = Sequential()
😎不写tf.keras.Sequential()是因为导包导了Sequential

(2)给模型添加一个卷积核大小为1X1,输入图形形状为32×32,256通道的2D卷积层(Conv2D)

model.add(Conv2D(256, (1, 1), input_shape=(32, 32, 256), activation=’relu’))

(3)再添加一个卷积核大小3×3的256通道卷积层

model.add(Conv2D(256, (3, 3), activation=’relu’))

(4)添加一个最大池化层

model.add(MaxPooling2D())

(5)添加一个卷积核大小为2×2的512通道卷积层,并加入最大池化层

model.add(Conv2D(512, (2, 2), activation=‘relu’))
model.add(MaxPooling2D())

(6)添加一个扁平化层

model.add(Flatten())

(7)添加一个具有196个神经元的全连接层

model.add(Dense(196))

呃呃,不清楚最后是要写整段代码还是像这样看注释写【总之,每段代码的意思我都标注出来了,可以开背 💪】
总不会让写导包罢🥺

2、手写数字识别分类

更新 😡

这里是引用

七、结尾

被猫猫指到的人,不准挂科!说谢谢猫猫 😺

这里是引用

文章出处登录后可见!

已经登录?立即刷新

共计人评分,平均

到目前为止还没有投票!成为第一位评论此文章。

(0)
心中带点小风骚的头像心中带点小风骚普通用户
上一篇 2023年7月15日
下一篇 2023年7月15日

相关推荐

此站出售,如需请站内私信或者邮箱!