11. 附录
search
快速搜索
code
显示源代码
在线课程直播
PDF
Jupyter 记事本文件
讨论
GitHub
English Version
Table Of Contents
前言
如何使用本书
1. 深度学习简介
2. 预备知识
2.1. 获取和运行本书的代码
2.2. 数据操作
2.3. 自动求梯度
2.4. 查阅文档
3. 深度学习基础
3.1. 线性回归
3.2. 线性回归的从零开始实现
3.3. 线性回归的简洁实现
3.4. softmax回归
3.5. 图像分类数据集(Fashion-MNIST)
3.6. softmax回归的从零开始实现
3.7. softmax回归的简洁实现
3.8. 多层感知机
3.9. 多层感知机的从零开始实现
3.10. 多层感知机的简洁实现
3.11. 模型选择、欠拟合和过拟合
3.12. 权重衰减
3.13. 丢弃法
3.14. 正向传播、反向传播和计算图
3.15. 数值稳定性和模型初始化
3.16. 实战Kaggle比赛:房价预测
4. 深度学习计算
4.1. 模型构造
4.2. 模型参数的访问、初始化和共享
4.3. 模型参数的延后初始化
4.4. 自定义层
4.5. 读取和存储
4.6. GPU计算
5. 卷积神经网络
5.1. 二维卷积层
5.2. 填充和步幅
5.3. 多输入通道和多输出通道
5.4. 池化层
5.5. 卷积神经网络(LeNet)
5.6. 深度卷积神经网络(AlexNet)
5.7. 使用重复元素的网络(VGG)
5.8. 网络中的网络(NiN)
5.9. 含并行连结的网络(GoogLeNet)
5.10. 批量归一化
5.11. 残差网络(ResNet)
5.12. 稠密连接网络(DenseNet)
6. 循环神经网络
6.1. 语言模型
6.2. 循环神经网络
6.3. 语言模型数据集(歌词)
6.4. 循环神经网络的从零开始实现
6.5. 循环神经网络的简洁实现
6.6. 通过时间反向传播
6.7. 门控循环单元(GRU)
6.8. 长短期记忆(LSTM)
6.9. 深度循环神经网络
6.10. 双向循环神经网络
7. 优化算法
7.1. 优化与深度学习
7.2. 梯度下降和随机梯度下降
7.3. 小批量随机梯度下降
7.4. 动量法
7.5. AdaGrad算法
7.6. RMSProp算法
7.7. AdaDelta算法
7.8. Adam算法
8. 计算性能
8.1. 命令式和符号式混合编程
8.2. 异步计算
8.3. 自动并行计算
8.4. 多GPU计算
8.5. 多GPU计算的简洁实现
9. 计算机视觉
9.1. 图像增广
9.2. 微调
9.3. 目标检测和边界框
9.4. 锚框
9.5. 多尺度目标检测
9.6. 目标检测数据集(皮卡丘)
9.7. 单发多框检测(SSD)
9.8. 区域卷积神经网络(R-CNN)系列
9.9. 语义分割和数据集
9.10. 全卷积网络(FCN)
9.11. 样式迁移
9.12. 实战Kaggle比赛:图像分类(CIFAR-10)
9.13. 实战Kaggle比赛:狗的品种识别(ImageNet Dogs)
10. 自然语言处理
10.1. 词嵌入(word2vec)
10.2. 近似训练
10.3. word2vec的实现
10.4. 子词嵌入(fastText)
10.5. 全局向量的词嵌入(GloVe)
10.6. 求近义词和类比词
10.7. 文本情感分类:使用循环神经网络
10.8. 文本情感分类:使用卷积神经网络(textCNN)
10.9. 编码器—解码器(seq2seq)
10.10. 束搜索
10.11. 注意力机制
10.12. 机器翻译
11. 附录
11.1. 主要符号一览
11.2. 数学基础
11.3. 使用Jupyter记事本
11.4. 使用AWS运行代码
11.5. GPU购买指南
11.6. 如何为本书贡献
11.7.
d2lzh
包索引
Table Of Contents
前言
如何使用本书
1. 深度学习简介
2. 预备知识
2.1. 获取和运行本书的代码
2.2. 数据操作
2.3. 自动求梯度
2.4. 查阅文档
3. 深度学习基础
3.1. 线性回归
3.2. 线性回归的从零开始实现
3.3. 线性回归的简洁实现
3.4. softmax回归
3.5. 图像分类数据集(Fashion-MNIST)
3.6. softmax回归的从零开始实现
3.7. softmax回归的简洁实现
3.8. 多层感知机
3.9. 多层感知机的从零开始实现
3.10. 多层感知机的简洁实现
3.11. 模型选择、欠拟合和过拟合
3.12. 权重衰减
3.13. 丢弃法
3.14. 正向传播、反向传播和计算图
3.15. 数值稳定性和模型初始化
3.16. 实战Kaggle比赛:房价预测
4. 深度学习计算
4.1. 模型构造
4.2. 模型参数的访问、初始化和共享
4.3. 模型参数的延后初始化
4.4. 自定义层
4.5. 读取和存储
4.6. GPU计算
5. 卷积神经网络
5.1. 二维卷积层
5.2. 填充和步幅
5.3. 多输入通道和多输出通道
5.4. 池化层
5.5. 卷积神经网络(LeNet)
5.6. 深度卷积神经网络(AlexNet)
5.7. 使用重复元素的网络(VGG)
5.8. 网络中的网络(NiN)
5.9. 含并行连结的网络(GoogLeNet)
5.10. 批量归一化
5.11. 残差网络(ResNet)
5.12. 稠密连接网络(DenseNet)
6. 循环神经网络
6.1. 语言模型
6.2. 循环神经网络
6.3. 语言模型数据集(歌词)
6.4. 循环神经网络的从零开始实现
6.5. 循环神经网络的简洁实现
6.6. 通过时间反向传播
6.7. 门控循环单元(GRU)
6.8. 长短期记忆(LSTM)
6.9. 深度循环神经网络
6.10. 双向循环神经网络
7. 优化算法
7.1. 优化与深度学习
7.2. 梯度下降和随机梯度下降
7.3. 小批量随机梯度下降
7.4. 动量法
7.5. AdaGrad算法
7.6. RMSProp算法
7.7. AdaDelta算法
7.8. Adam算法
8. 计算性能
8.1. 命令式和符号式混合编程
8.2. 异步计算
8.3. 自动并行计算
8.4. 多GPU计算
8.5. 多GPU计算的简洁实现
9. 计算机视觉
9.1. 图像增广
9.2. 微调
9.3. 目标检测和边界框
9.4. 锚框
9.5. 多尺度目标检测
9.6. 目标检测数据集(皮卡丘)
9.7. 单发多框检测(SSD)
9.8. 区域卷积神经网络(R-CNN)系列
9.9. 语义分割和数据集
9.10. 全卷积网络(FCN)
9.11. 样式迁移
9.12. 实战Kaggle比赛:图像分类(CIFAR-10)
9.13. 实战Kaggle比赛:狗的品种识别(ImageNet Dogs)
10. 自然语言处理
10.1. 词嵌入(word2vec)
10.2. 近似训练
10.3. word2vec的实现
10.4. 子词嵌入(fastText)
10.5. 全局向量的词嵌入(GloVe)
10.6. 求近义词和类比词
10.7. 文本情感分类:使用循环神经网络
10.8. 文本情感分类:使用卷积神经网络(textCNN)
10.9. 编码器—解码器(seq2seq)
10.10. 束搜索
10.11. 注意力机制
10.12. 机器翻译
11. 附录
11.1. 主要符号一览
11.2. 数学基础
11.3. 使用Jupyter记事本
11.4. 使用AWS运行代码
11.5. GPU购买指南
11.6. 如何为本书贡献
11.7.
d2lzh
包索引
11. 附录
¶
11.1. 主要符号一览
11.1.1. 数
11.1.2. 集合
11.1.3. 操作符
11.1.4. 函数
11.1.5. 导数和梯度
11.1.6. 概率和统计
11.1.7. 复杂度
11.2. 数学基础
11.2.1. 线性代数
11.2.2. 微分
11.2.3. 概率
11.2.4. 小结
11.2.5. 练习
11.2.6. 扫码直达讨论区
11.3. 使用Jupyter记事本
11.3.1. 在本地编辑和运行本书的代码
11.3.2. 高级选项
11.3.3. 小结
11.3.4. 练习
11.3.5. 扫码直达讨论区
11.4. 使用AWS运行代码
11.4.1. 申请账号并登陆
11.4.2. 创建并运行EC2实例
11.4.3. 安装CUDA
11.4.4. 获取本书的代码并安装GPU版的MXNet
11.4.5. 运行Jupyter记事本
11.4.6. 关闭不使用的实例
11.4.7. 小结
11.4.8. 练习
11.4.9. 扫码直达讨论区
11.5. GPU购买指南
11.5.1. 选择GPU
11.5.2. 整机配置
11.5.3. 小结
11.5.4. 练习
11.5.5. 扫码直达讨论区
11.6. 如何为本书贡献
11.6.1. 小结
11.6.2. 练习
11.6.3. 参考文献
11.6.4. 扫码直达讨论区
11.7.
d2lzh
包索引
Previous
10.12. 机器翻译
Next
11.1. 主要符号一览