linglan2020 / CTC-loss-introduction

介绍ctc算法原理以及numpy简单实现

Geek Repo:Geek Repo

Github PK Tool:Github PK Tool

CTC 算法原理

现实应用中许多问题可以抽象为序列学习(sequence learning)问题,比如词性标注(POS Tagging)、语音识别(Speech Recognition)、手写字识别(Handwriting Recognition)、机器翻译(Machine Translation)等应用,其核心问题都是训练模型把一个领域的(输入)序列转成另一个领域的(输出)序列。近年来基于RNN的序列到序列模型(sequence-to-sequence models)在序列学习任务中取得了显著的效果提升,本文介绍一种RNN(Recurrent Neural Networks)的端到端训练方法——CTC(Connectionist Temporal Classification)算法,它可以让RNN直接对序列数据进行学习,而无需事先标注好训练数据中输入序列和输出序列的映射关系,打破了RNN应用于语音识别、手写字识别等领域的数据依赖约束,使得RNN模型在序列学习任务中取得更好的应用效果。 ref: https://xiaodu.io/

本repo主要包括一下内容

  1. ctc算法的基本原理以及公式推导
  2. ctc解码的算法
  3. 基于ctc算法的数字识别
  4. ctc 源码解读
  5. ctc loss的numpy代码实现

About

介绍ctc算法原理以及numpy简单实现


Languages

Language:Python 50.5%Language:Jupyter Notebook 49.5%