Zessay / deeplearning-models

各种深度学习结构、模型和技巧的集合

Geek Repo:Geek Repo

Github PK Tool:Github PK Tool

Python 3.7 MIT

深度学习模型

本项目讲述了深度学习中的结构、模型和技巧,使用的深度学习框架是 TensorFlow 和 PyTorch,代码和图文都以 Jupyter Notebook 的形式编写。

传统机器学习

多层感知器

卷积神经网络

基本

概念

  • 使用卷积层等效替换全连接层 [PyTorch]

全卷积

数据集介绍

数据集 中文名称 样本数 图像尺寸 官方网站
MNIST 手写数字数据集 训练集 60000,测试集 10000 (28, 28) MNIST
CIFAR-10 加拿大高等研究院-10 训练集 50000,测试集 10000 (32, 32) CIFAR-10
SVHN 街景门牌号 训练集 73257,测试集 26032,额外 531131 尺寸不一,裁剪后 (32, 32) SVHN
CelebA 名人面部属性数据集 202599 尺寸不一,图像宽度超过 200 CelebA
Quickdraw 快速涂鸦数据集 5000 万 原始尺寸是 (256, 256),裁剪后为 (32, 32) Quickdraw

模型搭建与训练

数据集 模型 任务 地址 测试集准确率
CIFAR-10 AlexNet 图像分类 PyTorch 66.63%
CIFAR-10 VGG-16 图像分类 PyTorch 75.43%
CIFAR-10 VGG-19 图像分类 PyTorch 74.56%
CIFAR-10 Network in Network 图像分类 PyTorch 70.67%
CIFAR-10 ResNet-101 图像分类 PyTorch 76.50%
MNIST ResNet 残差模块练习 数字分类 PyTorch 97.91%
MNIST ResNet-18 数字分类 PyTorch 99.06%
MNIST ResNet-34 数字分类 PyTorch 99.04%
MNIST ResNet-50 数字分类 PyTorch 98.39%
CelebA VGG-16 性别分类 PyTorch 90.72%
CelebA ResNet-18 性别分类 PyTorch 97.38%
CelebA ResNet-34 性别分类 PyTorch 97.56%
CelebA ResNet-50 性别分类 PyTorch 97.40%
CelebA ResNet-101 性别分类 PyTorch 97.52%
CelebA ResNet-152 性别分类 PyTorch

度量学习

自编码器

全连接自编码器

卷积自编码器

  • 反卷积 / 转置卷积实现的卷积自编码器[TensorFlow 1] [PyTorch]
  • 转置卷积实现的卷积自编码器(没有使用池化操作) [PyTorch]
  • 最近邻插值实现的卷积自编码器 [TensorFlow 1] [PyTorch]
  • 在 CelebA 上训练的最近邻插值卷积自编码器 [PyTorch]
  • 在 Quickdraw 上训练的最近邻插值卷积自编码器 [PyTorch]

变分自动编码器

  • 变分自动编码器 [PyTorch]
  • 卷积变分自动编码器 [PyTorch]

条件变分自动编码器

  • 条件变分自动编码器(重建损失中带标签) [PyTorch]
  • 条件变分自动编码器(重建损失中没有标签) [PyTorch]
  • 卷积条件变分自动编码器(重建损失中带标签) [PyTorch]
  • 卷积条件变分自动编码器(重建损失中没有标签) [PyTorch]

生成对抗网络 (GANs)

递归神经网络 (RNNs)

多对一:情感分析、分类

  • 一个简单的单层RNN(IMDB)[PyTorch]
  • 一个简单的单层RNN,带有打包序列,用于忽略填充字符(IMDB) [PyTorch]
  • 带有长短期记忆(LSTM)的RNN(IMDB) [PyTorch]
  • 带有长短期记忆(LSTM)的RNN,使用预训练 GloVe 词向量 [PyTorch]
  • 带有长短期记忆(LSTM)的RNN,训练 CSV 格式的数据集(IMDB)[PyTorch]
  • 带有门控单元(GRU)的RNN(IMDB) [PyTorch]
  • 多层双向RNN(IMDB) [PyTorch]

多对多 / 序列对序列

  • Char-RNN 实现的文本生成器(Charles Dickens) [PyTorch]

序数回归

  • 序数回归 CNN -- CORAL w. ResNet34(AFAD-Lite) [PyTorch]
  • 序数回归 CNN -- Niu et al. 2016 w. ResNet34(AFAD-Lite) [PyTorch]
  • 序数回归 CNN -- Beckham and Pal 2016 w. ResNet34(AFAD-Lite) [PyTorch]

技巧和窍门

PyTorch 工作流程和机制

自定义数据集

  • 使用 torch.utils.data 加载自定义数据集 -- CSV 文件转换为 HDF5 格式 [PyTorch]
  • 使用 torch.utils.data 加载自定义数据集 -- 来自 CelebA 的面部图像 [PyTorch]
  • 使用 torch.utils.data 加载自定义数据集 -- 来自 Quickdraw 的手绘图像 [PyTorch]
  • 使用 torch.utils.data 加载自定义数据集 -- 来自街景门牌号数据集(SVHN)的图像 [PyTorch]
  • 使用 torch.utils.data 加载自定义数据集 -- 亚洲面部数据集 (AFAD) [PyTorch]
  • 使用 torch.utils.data 加载自定义数据集 -- 照片年代追溯数据集(Dating Historical Color Images) [PyTorch]

训练和预处理

  • 生成训练集和验证集 [PyTorch]
  • 在 DataLoader 中使用固定内存(pin_memory)技术 [PyTorch]
  • 标准化图像(Standardization) [PyTorch]
  • 使用 torchvision 进行图像变换(数据增强) [PyTorch]
  • 在自己的文本数据上训练 Char-RNN [PyTorch]
  • 在自己的文本数据集上使用 LSTM 进行情感分类 [PyTorch]

并行计算

  • 使用 DataParallel 进行多 GPU 训练 -- 在 CelebA 上使用 VGG-16 训练性别分类器 [PyTorch]

其他

  • Sequential API 和 Hook 技术 [PyTorch]
  • 同层权值共享 [PyTorch]
  • 使用 Matplotlib 在 Jupyter Notebook 中绘制实时训练曲线 [PyTorch]

Autograd

  • 在 PyTorch 中获取中间变量的梯度 [PyTorch]

TensorFlow 工作流程和机制

自定义数据集

  • 使用 NumPy npz 格式打包小批量图像数据集 [TensorFlow 1]
  • 使用 HDF5 格式保存小批量图像数据集 [TensorFlow 1]
  • 使用输入管道在 TFRecords 文件中读取数据 [TensorFlow 1]
  • 使用队列运行器(Queue Runners)从硬盘中直接读取图像 [TensorFlow 1]
  • 使用 TensorFlow 数据集 API [TensorFlow 1]

训练和预处理

  • 保存和加载模型 -- 保存为 TensorFlow Checkpoint 文件和 NumPy npz 文件 [TensorFlow 1]

About

各种深度学习结构、模型和技巧的集合

License:MIT License


Languages

Language:Jupyter Notebook 99.9%Language:Python 0.1%