卷积核用于滑动图像以提取特定特征(如特定方向的边缘),然后使用relu抑制梯度色散。为了得到结果,使用另一个卷积核继续提取relu,然后pool(保留大区域或使用平均区域替换整个局部区域的值,确保平移不变性,并在一定程度上抑制过拟合)
成都创新互联自2013年起,先为亭湖等服务建站,亭湖等地企业,进行企业商务咨询服务。为亭湖企业网站制作PC+手机+微官网三网同步一站式服务解决您的所有建站问题。在“depth”之后,我们需要继续使用不同的卷积核来合并合并结果。最后,本质是一幅图像的深度特征,然后实际的分类需要添加另一层,一般是softmax。
(也就是说,对于已经训练过的现成的卷积神经网络模型,只保留最后一层以外的部分,然后输入训练图片,并将网络的输出发送给多类支持向量机进行再训练。最后,根据支持向量机的参数,可以得到相同的结果。)
为什么卷积神经网络很快就收敛了?数据没有标准化。
我没有检查你的结果。结果包括预处理结果和最终的训练测试结果。
忘记做数据预处理。
忘记使用正则化。
批量设置太大。
学习速率设置不正确。
未正确使用最后一层的激活功能。
网络中存在不良梯度。例如,relu到负值的梯度为0。当它向后传播时,0的渐变不会传播。
参数初始化错误。
网络太深。
隐藏层中的神经元数量错误。
比较以上11项找出错误
如果你是一个面试者,怎么判断一个面试官的机器学习水平?卷积核数滤波器卷积核大小uu卷积核权参数初始分布卷积核偏差参数初始分布池大小池步长池优化算法目标函数批量大小正则化数据预处理会影响太多的参数
简单的答案是肯定的。复杂的答案是不确定的(见下文)。
这个概念。
(图片作者:chabacano,许可证:CCbysa4.0)
从图像中可以明显看出,过度拟合的曲线过于曲折(复杂),对现有数据拟合得非常好,但它不能很好地描述数据的规律,因此面对新数据,我们不得不停下来。
从上面我们得到一个直觉,过度拟合的模型往往比正确的模型更复杂。
。您所说的“直接减少隐藏层和隐藏单元的数量”使网络更薄、更窄正是简化模型的方法。这个想法没有问题。
但是,我们可能必须尝试找出它是否有效。因为,一般来说,更复杂的网络可能更有表现力。
一般来说,神经网络仍然是一个黑匣子。有时,正则化的效果更好,有时则不然。一些问题可能是复杂的网络工作得很好,另一些问题可能是深度和狭窄的网络工作得很好,另一些问题可能是薄而宽的网络工作得很好,或者一些问题可能是简单的网络工作得很好。
具体来说,为了解决过拟合问题,除了简化模型(即您称之为“直接减少隐藏层、隐藏层、隐藏层”)外,还存在漏项(在某种意义上,我们可以看到模型的某些部分由于简化模型的绕道而无法工作),以及人为增加稀疏性限制(稀疏性和简化之间存在模糊关系)或尽快停止训练。