PyTorch 深度学习和图神经网络
(卷1)/基础知识
(卷2)/开发应用
李金洪 著
第二篇 基础——神经网络的监督训练与无监督训练
第8章 无监督学习中的神经网络
8.1 快速了解信息熵
8.1.1 信息熵与概率的计算关系(
Page 200
,
201
)
8.1.2 联合熵 (
Page 202
)
8.1.3 条件熵 (
Page 202
)
8.1.4 交叉熵(
Page 203
)
8.1.5 相对熵——KL散度(
Page 203
)
8.1.6 JS散度(
Page 204
)
8.1.7 互信息 (
Page 204
)
8.7 实例21: 用WGAN-gp模型生成模拟数据
8.7.1 DCGAN中的全卷积
(Page 226
)
8.7.2 上采样与下采样 (
Page 227
)
8.7.3 实例归一化 (
Page 228
)
8.7.4 代码实现:引入模块并载入样本 (
Page 228
)
8.7.5 代码实现:定义生成器与判别器(Page
229
,
230
)
8.7.6 激活函数与归一化层的位置 关系(Page
231
,
232
,
233
)
8.7.7 代码实现:定义函数完成梯度惩罚项(
Page 234
)
8.7.8 代码实现:定义模型的训练函数(Page
235
,
236
)
8.7.9 代码实现:定义函数,可视化模型结果 (
Page 237
)
8.7.10 代码实现:调用函数并训练模型 (
Page 237
)
8.7.11 练习题 (
Page 238
)
8.2 通用的无监督模型
——自编码神经网络与对抗神经网络(
Page 205
)
8.8 实例22:用条件GAN生成可控模拟数据
8.8.1 代码实现:定义条件GAN模型的正向结构(
Page 239
)
8.8.2 代码实现:调用函数并训练模型(
Page 240
)
8.3 自编码神经网络
8.3.1 自编码神经网络的结构(
Page 206
)
8.3.2 自编码神经网络的计算(
Page 206
)
8.3.3 自编码神经网络的作用与意义(
Page 207
)
8.3.4 变分自编码神经网络(
Page 207
)
8.3.5 条件变分自编码神经网络(
Page 208
)
8.9 实例23:实现带有W散度的GAN——GAN-div模型
8.9.1 代码实现:完成W散度的损失函数(
Page 241
)
8.9.2 代码实现:定义训练函数来训练模型(
Page 242
)
8.4 实例19:用变分自编码神经网络模型生成模拟数据
8.4.1 变分自编码神经网络的模型结构介绍(
Page 208
)
8.4.2 代码实现:引入模块并载入样本
(Page 209
)
8.4.3 代码实现:定义变分自编码神经网络的正向结构(
Page 210
)
8.4.4 变分自编码神经网络的反向传播与KL散度的应用(
Page 211
)
8.4.5 代码实现: 完成损失函数和训练函数(
Page 212
)
8.4.6 代码实现: 训练模型并输出可视化结果(
Page 213
)
8.4.7 代码实现:提取样本的低维特征并进行可视化(
Page 214
)
8.4.8 代码实现:可视化模型的输出空间(
Page 215
)
8.10 散度在神经网络中的应用
8.10.1 f-GAN框架(
Page 243
)
8.10.2 基于f散度的变分散度最小化方法(
Page 243
)
8.10.3 用Fenchel共轭函数实现f-GAN(Page
244
,
245
)
8.10.4 f-GAN中判别器的激活函数
(Page 246
)
8.10.5 互信息神经估计(Page
247
,
248
)
8.10.6 实例24: 有神经网络估计互信息(
Page 249
,
250
,
251
)
8.10.7 稳定训练GAN模型的经验和技巧(
Page 252
)
8.5 实例20:用条件变分自编码神经网络生成可控模拟数据
8.5.1 条件变分自编码神经网络的实现 (
Page 216
)
8.5.2 代码实现:定关于条件变分自编码神经网络的正向结构(
Page 217
)
8.5.3 代码实现:训练模型并输出可视化结果(
Page 218
)
8.11 实例25:用最大化深度互信息模型执行图片搜索器 (
Page 253
)
8.11.1 DIM模型的原理 (
Page 254
)
8.11.2 DIM模型的结构(Page
254
,
255
,
256
)
8.11.3 代码实现: 加载CIFAR数据集(Page
257
,
258
,
259
)
8.11.4 代码实现:定义DIM模型(Page
260
,
261
)
8.11.5 代码实现:实例化DIM模型并进行训练(Page
262
,
263
)
8.11.6 代码实现:加载模型搜索图片(
Page 264
,
265
)
8.6 对抗神经网络
8.6.1 对抗神经网络的工作过程(
Page 219
)
8.6.2 对抗神经网络的作用(
Page 220
)
8.6.3 GAN模型难以训练的原因(
Page 220
)
8.6.4 WGAN模型——解决GAN难以训练问题(
Page 221
)
8.6.5 分析WGAN的不足(
Page 222
)
8.6.6 WGAN-gp模型——更容易训练的GAN模型(
Page 223
)
8.6.7 条件GAN(
Page 224
)
8.6.8 带有W散度的GAN——WGAN-div
(Page 225
)
返回首页