Index
search
Quick search
在线课程
Java Jupyter 记事本文件
Slack
DJL GitHub
English version
Table Of Contents
序言
安装
符号
1. 前言
2. 预备知识
2.1. 数据操作
2.2. 数据预处理
2.3. 线性代数
2.4. 微分
2.5. 自动求导
2.6. 概率
2.7. 查阅文档
3. 线性神经网络
3.1. 线性回归
3.2. 线性回归的从零开始实现
3.3. 线性回归的简洁实现
3.4. Softmax回归
3.5. 图像分类数据集
3.6. softmax回归的从零开始实现
3.7. softmax回归的简洁实现
4. 多层感知机
4.1. 多层感知机
4.2. 多层感知机的从零开始实现
4.3. 多层感知机的简洁实现
4.4. 模型选择、欠拟合和过拟合
4.5. 权重衰减
4.6. Dropout
4.7. 正向传播、反向传播和计算图
4.8. 数值稳定性和模型初始化
4.9. 环境和分布偏移
5. 深度学习计算
5.1. 层和块
5.2. 参数管理
5.3. 自定义层
5.4. 读写文件
5.5. GPU
6. 卷积神经网络
6.1. 从密集层到卷积层
6.2. 图像的卷积
6.3. 填充和跨步
6.4. 多个输入和输出通道
6.5. 池化
6.6. 卷积神经网络(LeNet)
7. 现代卷积神经网络
7.1. Deep Convolutional Neural Networks (AlexNet)
7.2. Networks Using Blocks (VGG)
7.3. Network in Network (NiN)
7.4. Networks with Parallel Concatenations (GoogLeNet)
7.5. Batch Normalization
7.6. Residual Networks (ResNet)
7.7. Densely Connected Networks (DenseNet)
8. 循环神经网络
8.1. 序列模型
8.2. 文本预处理
8.3. 语言模型和数据集
8.4. 循环神经网络
8.5. 递归神经网络从头开始的实现
8.6. 递归神经网络的简洁实现
8.7. 通过时间反向传播
9. 现代循环神经网络
9.1. 门控循环单元(GRU)
9.2. 长短期记忆网络(LSTM)
9.3. 深度循环神经网络
9.4. 双向循环神经网络
9.5. 机器翻译与数据集
9.6. 序列到序列学习(seq2seq)
9.7. 束搜索
10. 注意力机制
10.1. 注意力提示
10.2. 注意力评分函数
10.3. 多头注意力
10.4. 自注意力和位置编码
11. 优化算法
11.1. 优化和深度学习
11.2. 凸性
11.3. 梯度下降
11.4. 随机梯度下降
11.5. 小批量随机梯度下降
11.6. 动量法
11.7. AdaGrad算法
11.8. RMSProp算法
11.9. Adadelta
11.10. Adam算法
11.11. 学习率调度器
12. 计算性能
12.1. 自动并行
12.2. 硬件
12.3. 多GPU训练
12.4. 多GPU的简洁实现
12.5. 参数服务器
13. 计算机视觉
13.1. Object Detection and Bounding Boxes
13.2. Anchor Boxes
13.3. Multiscale Object Detection
13.4. The Object Detection Dataset
14. 自然语言处理:预训练
14.1. 词嵌入(Word2vec)
14.2. 近似训练
14.3. 用于预训练词嵌入的数据集
14.4. 全局向量的词嵌入(GloVe)
14.5. 子词嵌入
References
Table Of Contents
序言
安装
符号
1. 前言
2. 预备知识
2.1. 数据操作
2.2. 数据预处理
2.3. 线性代数
2.4. 微分
2.5. 自动求导
2.6. 概率
2.7. 查阅文档
3. 线性神经网络
3.1. 线性回归
3.2. 线性回归的从零开始实现
3.3. 线性回归的简洁实现
3.4. Softmax回归
3.5. 图像分类数据集
3.6. softmax回归的从零开始实现
3.7. softmax回归的简洁实现
4. 多层感知机
4.1. 多层感知机
4.2. 多层感知机的从零开始实现
4.3. 多层感知机的简洁实现
4.4. 模型选择、欠拟合和过拟合
4.5. 权重衰减
4.6. Dropout
4.7. 正向传播、反向传播和计算图
4.8. 数值稳定性和模型初始化
4.9. 环境和分布偏移
5. 深度学习计算
5.1. 层和块
5.2. 参数管理
5.3. 自定义层
5.4. 读写文件
5.5. GPU
6. 卷积神经网络
6.1. 从密集层到卷积层
6.2. 图像的卷积
6.3. 填充和跨步
6.4. 多个输入和输出通道
6.5. 池化
6.6. 卷积神经网络(LeNet)
7. 现代卷积神经网络
7.1. Deep Convolutional Neural Networks (AlexNet)
7.2. Networks Using Blocks (VGG)
7.3. Network in Network (NiN)
7.4. Networks with Parallel Concatenations (GoogLeNet)
7.5. Batch Normalization
7.6. Residual Networks (ResNet)
7.7. Densely Connected Networks (DenseNet)
8. 循环神经网络
8.1. 序列模型
8.2. 文本预处理
8.3. 语言模型和数据集
8.4. 循环神经网络
8.5. 递归神经网络从头开始的实现
8.6. 递归神经网络的简洁实现
8.7. 通过时间反向传播
9. 现代循环神经网络
9.1. 门控循环单元(GRU)
9.2. 长短期记忆网络(LSTM)
9.3. 深度循环神经网络
9.4. 双向循环神经网络
9.5. 机器翻译与数据集
9.6. 序列到序列学习(seq2seq)
9.7. 束搜索
10. 注意力机制
10.1. 注意力提示
10.2. 注意力评分函数
10.3. 多头注意力
10.4. 自注意力和位置编码
11. 优化算法
11.1. 优化和深度学习
11.2. 凸性
11.3. 梯度下降
11.4. 随机梯度下降
11.5. 小批量随机梯度下降
11.6. 动量法
11.7. AdaGrad算法
11.8. RMSProp算法
11.9. Adadelta
11.10. Adam算法
11.11. 学习率调度器
12. 计算性能
12.1. 自动并行
12.2. 硬件
12.3. 多GPU训练
12.4. 多GPU的简洁实现
12.5. 参数服务器
13. 计算机视觉
13.1. Object Detection and Bounding Boxes
13.2. Anchor Boxes
13.3. Multiscale Object Detection
13.4. The Object Detection Dataset
14. 自然语言处理:预训练
14.1. 词嵌入(Word2vec)
14.2. 近似训练
14.3. 用于预训练词嵌入的数据集
14.4. 全局向量的词嵌入(GloVe)
14.5. 子词嵌入
References
Index