DO LIST
doing
- 日常
- 早上:李宏毅的课
- 日常:deep learning - the batch+博客
- 晚上:kaggle
- kaggle
- 预测:Answer Correctness Prediction
- 跑了个transformer in pytorch 的demo,其整体结构就是输入一个向量,输出一个向量
- Real or Not? NLP with Disaster Tweets,ongoing,已经有人score=1
- 预测:Answer Correctness Prediction
- 李宏毅的课
- Attention+transformer+bert
- 论文:Attention Is All You Need,2 Background
- 李宏毅课件+youtube讲解
- 博客:Attention? Attention! - Lil'Log
- 美团博客实践
- 《深度学习》,系统地学一遍
- RNN反向传播怎么处理多轮的梯度:看《深度学习》中RNN的反向传播
- 语言模型和视觉的融合才是未来?
- ELMo
- GPT
todo
- Kaggle,Cornell Birdcall Identification,2020.9.8
- 学生答题正确性预测,2020.11.15
- 腾讯的黑灰产对抗实战
- confidence_ellipse: 绘制二位数据集的置信椭圆
- lime: 模型解释工具
- XGBoost相关
- lightGMB
- catboost
- course
- coursera: 其他类型的课程,比如Google认证证书
done
- kaggle
- NLP入门,Kaggle比赛,Spooky Author Identification,验证集准确率71%
- coursera
- deep learning
- nlp from deeplearning.ai
- 机器学习
- 深度学习
- lstm最后一层隐藏层和输出层的区别:lstm只有隐藏层和记忆细胞,没有输出层,因此使用隐藏层作为下一线性层的输入是正确的。
- GRU、LSTM,是在RNN基础上添加不同的门控单元,比如添加长期记忆,长期记忆消除因子。那么不同的场景添加符合业务的门控单元,或许也能学习到相应的内容。
- 其他
- github:how-to-get-rich-without-getting-lucky
- 浪潮之巅上册,6 / 17