wa008 / daily_note

日常笔记

Geek Repo:Geek Repo

Github PK Tool:Github PK Tool

DO LIST

doing

  1. 日常
    1. 早上:李宏毅的课
    2. 日常:deep learning - the batch+博客
    3. 晚上:kaggle
  2. kaggle
    1. 预测:Answer Correctness Prediction
      1. 跑了个transformer in pytorch 的demo,其整体结构就是输入一个向量,输出一个向量
    2. Real or Not? NLP with Disaster Tweets,ongoing,已经有人score=1
  3. 李宏毅的课
  4. Attention+transformer+bert
    1. 论文:Attention Is All You Need,2 Background
    2. 李宏毅课件+youtube讲解
    3. 博客:Attention? Attention! - Lil'Log
    4. 美团博客实践
  5. 《深度学习》,系统地学一遍
    1. RNN反向传播怎么处理多轮的梯度:看《深度学习》中RNN的反向传播
  6. 语言模型和视觉的融合才是未来?
  7. ELMo
  8. GPT

todo

  1. Kaggle,Cornell Birdcall Identification,2020.9.8
  2. 学生答题正确性预测,2020.11.15
  3. 腾讯的黑灰产对抗实战
  4. confidence_ellipse: 绘制二位数据集的置信椭圆
  5. lime: 模型解释工具
  6. XGBoost相关
    1. lightGMB
    2. catboost
  7. course
    1. coursera: 其他类型的课程,比如Google认证证书

done

  1. kaggle
    1. NLP入门,Kaggle比赛,Spooky Author Identification,验证集准确率71%
  2. coursera
    1. deep learning
    2. nlp from deeplearning.ai
  3. 机器学习
    1. GBDT
    2. XGBoost
    3. How You Should Read Research Papers According To Andrew Ng (Stanford Deep Learning Lectures)
  4. 深度学习
    1. lstm最后一层隐藏层和输出层的区别:lstm只有隐藏层和记忆细胞,没有输出层,因此使用隐藏层作为下一线性层的输入是正确的。
    2. GRU、LSTM,是在RNN基础上添加不同的门控单元,比如添加长期记忆,长期记忆消除因子。那么不同的场景添加符合业务的门控单元,或许也能学习到相应的内容。
  5. 其他
    1. github:how-to-get-rich-without-getting-lucky
    2. 浪潮之巅上册,6 / 17

About

日常笔记