• 神经网络与深度学习
  • Introduction
  • 使用神经网络识别手写数字
    • 感知机
    • sigmoid神经元
    • 神经网络的结构
    • 用简单的网络结构解决手写数字识别
    • 通过梯度下降法学习参数
    • 实现我们的神经网络来分类数字
    • 迈向深度学习
  • 反向传播算法是如何工作的
    • 热身:一个基于矩阵的快速计算神经网络输出的方法
    • 关于代价函数的两个假设
    • Hadamard积,s⨀t
    • 反向传播背后的四个基本等式
    • 四个基本方程的证明(自选)
    • 反向传播算法
    • 反向传播算法代码
    • 为什么说反向传播算法很高效
    • 反向传播:整体描述
  • 改进神经网络的学习方法
    • 交叉熵代价函数
    • 用交叉熵解决手写数字识别问题
    • 交叉熵的意义是什么?它又是怎么来的?
    • Softmax
    • 过拟合和正则化
      • 正则化
      • 为什么正则化能够降低过拟合
    • 其它正则化技术
    • 参数初始化
    • 重温手写数字识别:代码
    • 如何选择神经网络的超参数
    • 其它技术
  • 神经网络可以计算任何函数的可视化证明
    • 两个预先声明
    • 一个输入和一个输出的普遍性
    • 多个输入变量
    • S型神经元的延伸
    • 修补阶跃函数
    • 结论
  • 为什么深度神经网络的训练是困难的
    • 梯度消失问题
    • 什么导致了消失的梯度问题?深度神经网络中的梯度不稳定性
    • 在更加复杂网络中的不稳定梯度
    • 其他深度学习的障碍
  • 深度学习
    • 介绍卷积网络
    • 卷积神经网络在实际中的应用
    • 卷积网络的代码
    • 图像识别领域中的近期进展
    • 其他的深度学习模型
    • 神经网络的未来
  • 附录:是否有关于智能的⼀个简单的算法?
Powered by GitBook

神经网络的未来

文章链接: http://mp.weixin.qq.com/s?__biz=MzIxMjAzNDY5Mg==&mid=2650791018&idx=1&sn=562df42ac2b0ce2bd62936a036cc812d&chksm=8f474981b830c097b901526cd87fb5d7b986d9f8a5f0daedf9470dbe379c4921d5bb6a545bbc&scene=21#wechat_redirect

results matching ""

    No results matching ""