关于神经网络最后为什么需要用多个全连接层的疑问
1150查看
2回复
2019-02-09T16:20:04+08:00
课程问答

CNN卷积神经网络: 搭建Demo网络用语MNIST识别,最后两层为fc层。为什么不用1层直接输出10个分类呢?有什么好处或者这样做的理由吗?

# 将池化层平铺用于全连接层,计算得到池化层平铺后大小为 None*90
pool_shaped = tf.reshape(pool, [-1, 10*3*3])
# 全连接层,输出矩阵 None*30, relu 激活
fc1 = tf.layers.dense(pool_shaped, 30, activation=tf.nn.relu)
全部回复

这只是实验设计,你也可以试试只用一个全连接层对比看看效果。

2019-02-11T20:19:17+08:00
回复
回复

您好,我是想问问神经网络设计的原则?应该有一些经验,不用我们再靠单纯暴力的试出来。请问您知道吗?

2019-02-15T06:41:50+08:00
回复
你的回复