动手学深度学习
- 资料大王PDF
-
0 次阅读
-
0 次下载
-
2024-10-01 21:59:08
微信
赏
支付宝
文档简介:
目 录
版权信息
版权
内容提要
对本书的赞誉
前言
如何使用本书
资源与支持
主要符号表
第1章 深度学习简介
1.1 起源
1.2 发展
1.3 成功案例
1.4 特点
第2章 预备知识
2.1 获取和运行本书的代码
2.1.1 获取代码并安装运行环境
2.1.2 更新代码和运行环境
2.1.3 使用GPU版的MXNet
2.2 数据操作
2.2.1 创建NDArray
2.2.2 运算
2.2.3 广播机制
2.2.4 索引
2.2.5 运算的内存开销
2.2.6 NDArray和NumPy相互变换
2.3 自动求梯度
2.3.1 简单例子
2.3.2 训练模式和预测模式
2.3.3 对Python控制流求梯度
2.4 查阅文档
2.4.1 查找模块里的所有函数和类
2.4.2 查找特定函数和类的使用
2.4.3 在MXNet网站上查阅
第3章 深度学习基础
3.1 线性回归
3.1.1 线性回归的基本要素
3.1.2 线性回归的表示方法
3.2 线性回归的从零开始实现
3.2.1 生成数据集
3.2.2 读取数据集
3.2.3 初始化模型参数
3.2.4 定义模型
3.2.5 定义损失函数
3.2.6 定义优化算法
3.2.7 训练模型
3.3 线性回归的简洁实现
3.3.1 生成数据集
3.3.2 读取数据集
3.3.3 定义模型
3.3.4 初始化模型参数
3.3.5 定义损失函数
3.3.6 定义优化算法
3.3.7 训练模型
3.4 softmax回归
3.4.1 分类问题
3.4.2 softmax回归模型
3.4.3 单样本分类的矢量计算表达式
3.4.4 小批量样本分类的矢量计算表达式
3.4.5 交叉熵损失函数
3.4.6 模型预测及评价
3.5 图像分类数据集(Fashion-MNIST)
3.5.1 获取数据集
3.5.2 读取小批量
3.6 softmax回归的从零开始实现
3.6.1 读取数据集
3.6.2 初始化模型参数
3.6.3 实现softmax运算
3.6.4 定义模型
3.6.5 定义损失函数
3.6.6 计算分类准确率
3.6.7 训练模型
3.6.8 预测
3.7 softmax回归的简洁实现
3.7.1 读取数据集
3.7.2 定义和初始化模型
3.7.3 softmax和交叉熵损失函数
3.7.4 定义优化算法
3.7.5 训练模型
3.8 多层感知机
3.8.1 隐藏层
3.8.2 激活函数
3.8.3 多层感知机
3.9 多层感知机的从零开始实现
3.9.1 读取数据集
3.9.2 定义模型参数
3.9.3 定义激活函数
3.9.4 定义模型
3.9.5 定义损失函数
3.9.6 训练模型
3.10......
评论
发表评论