Special Sponsors
- 我们不是 Apache 的官方组织/机构/团体,只是 Apache 技术栈(以及 AI)的爱好者!
- 合作or侵权,请联系: apachecn@163.com
- ApacheCN - 学习机器学习群【629470233】
欢迎任何人参与和完善:一个人可以走的很快,但是一群人却可以走的更远
https://github.com/apachecn/ai-roadmap/blob/master/ai-union-201904/README.md
按照步骤: 1 => 2 => 3,你可以当大牛!
- Machine Learning in Action (机器学习实战) | ApacheCN(apache中文网)
- 电子版书籍:【机器学习实战-中文版-带目录版.pdf】
- -- 感谢 飞龙小哥哥 生成的电子书《机器学习实战-ApacheCN.pdf》
- 视频已更新完成,如果你觉得有价值,请帮忙点 Star【后续组织学习活动:sklearn、kaggle、 Pytorch 和 tensorflow】
- -- 视频网站:优酷 /bilibili / Acfun / 网易云课堂,可直接在线播放。(最下方有相应链接)
- -- 群小哥哥:红色石头: **大学林轩田机器学习笔记
- 推荐一个机器学习笔记: https://feisky.xyz/machine-learning
模块 | 章节 | 类型 | 负责人(GitHub) | |
---|---|---|---|---|
机器学习实战 | 第 1 章: 机器学习基础 | 介绍 | @毛红动 | 1306014226 |
机器学习实战 | 第 2 章: KNN 近邻算法 | 分类 | @尤永江 | 279393323 |
机器学习实战 | 第 3 章: 决策树 | 分类 | @景涛 | 844300439 |
机器学习实战 | 第 4 章: 朴素贝叶斯 | 分类 | @wnma3mz @分析 |
1003324213 244970749 |
机器学习实战 | 第 5 章: Logistic回归 | 分类 | @微光同尘 | 529925688 |
机器学习实战 | 第 6 章: SVM 支持向量机 | 分类 | @王德红 | 934969547 |
网上组合内容 | 第 7 章: 集成方法(随机森林和 AdaBoost) | 分类 | @片刻 | 529815144 |
机器学习实战 | 第 8 章: 回归 | 回归 | @微光同尘 | 529925688 |
机器学习实战 | 第 9 章: 树回归 | 回归 | @微光同尘 | 529925688 |
机器学习实战 | 第 10 章: K-Means 聚类 | 聚类 | @徐昭清 | 827106588 |
机器学习实战 | 第 11 章: 利用 Apriori 算法进行关联分析 | 频繁项集 | @刘海飞 | 1049498972 |
机器学习实战 | 第 12 章: FP-growth 高效发现频繁项集 | 频繁项集 | @程威 | 842725815 |
机器学习实战 | 第 13 章: 利用 PCA 来简化数据 | 工具 | @廖立娟 | 835670618 |
机器学习实战 | 第 14 章: 利用 SVD 来简化数据 | 工具 | @张俊皓 | 714974242 |
机器学习实战 | 第 15 章: 大数据与 MapReduce | 工具 | @wnma3mz | 1003324213 |
Ml项目实战 | 第 16 章: 推荐系统(已迁移) | 项目 | 推荐系统(迁移后地址) | |
第一期的总结 | 2017-04-08: 第一期的总结 | 总结 | 总结 | 529815144 |
当然我知道,第一句就会被吐槽,因为科班出身的人,不屑的吐了一口唾沫,说傻X,还评论 Andrew Ng 的视频。。
我还知道还有一部分人,看 Andrew Ng 的视频就是看不懂,那神秘的数学推导,那迷之微笑的英文版的教学,我何尝又不是这样走过来的?? 我的心可能比你们都痛,因为我在网上收藏过上10部《机器学习》相关视频,外加国内本土风格的教程:7月+小象 等等,我都很难去听懂,直到有一天,被一个百度的高级算法分析师推荐说:《机器学习实战》还不错,通俗易懂,你去试试??
我试了试,还好我的Python基础和调试能力还不错,基本上代码都调试过一遍,很多高大上的 "理论+推导",在我眼中变成了几个 "加减乘除+循环",我想这不就是像我这样的程序员想要的入门教程么?
很多程序员说机器学习 TM 太难学了,是的,真 TM 难学,我想最难的是:没有一本像《机器学习实战》那样的作者愿意以程序员 Coding 角度去给大家讲解!!
最近几天,GitHub 涨了 300颗 star,加群的200人, 现在还在不断的增加++,我想大家可能都是感同身受吧!
很多想入门新手就是被忽悠着收藏收藏再收藏,但是最后还是什么都没有学到,也就是"资源收藏家",也许新手要的就是 MachineLearning(机器学习) 学习路线图。没错,我可以给你们的一份,因为我们还通过视频记录下来我们的学习过程。水平当然也有限,不过对于新手入门,绝对没问题,如果你还不会,那算我输!!
视频怎么看?
- 理论科班出身-建议去学习 Andrew Ng 的视频(Ng 的视频绝对是权威,这个毋庸置疑)
- 编码能力强 - 建议看我们的《机器学习实战-教学版》
- 编码能力弱 - 建议看我们的《机器学习实战-讨论版》,不过在看理论的时候,看 教学版-理论部分;讨论版的废话太多,不过在讲解代码的时候是一行一行讲解的;所以,根据自己的需求,自由的组合。
【免费】数学教学视频 - 可汗学院 入门篇
- @于振梓 推荐: 可汗学院-网易公开课
概率 | 统计 | 线性代数 |
---|---|---|
可汗学院(概率) | 可汗学院(统计学) | 可汗学院(线性代数) |
机器学习视频 - ApacheCN 教学版
AcFun | B站 |
优酷 | 网易云课堂 |
【免费】机器/深度学习视频 - 吴恩达
机器学习 | 深度学习 |
---|---|
吴恩达机器学习 | 神经网络和深度学习 |
深度学习必学
- 反向传递: https://www.cnblogs.com/charlotte77/p/5629865.html
- CNN原理: http://www.cnblogs.com/charlotte77/p/7759802.html
- RNN原理: https://blog.csdn.net/qq_39422642/article/details/78676567
- LSTM原理: https://blog.csdn.net/weixin_42111770/article/details/80900575
学习过程中-内心复杂的变化!!!
自从学习NLP以后,才发现国内与国外的典型区别:
1. 对资源的态度是完全相反的:
1) 国内:就好像为了名气,举办工作装逼的会议,就是没有干货,全部都是象征性的PPT介绍,不是针对在做的各位
2)国外:就好像是为了推动nlp进步一样,分享者各种干货资料和具体的实现。(特别是: python自然语言处理)
2. 论文的实现:
1) 各种高大上的论文实现,却还是没看到一个像样的GitHub项目!(可能我的搜索能力差了点,一直没找到)
2)国外就不举例了,我看不懂!
3. 开源的框架
1)国外的开源框架: tensorflow/pytorch 文档+教程+视频(官方提供)
2) 国内的开源框架: 额额,还真举例不出来!但是牛逼吹得不比国外差!(MXNet虽然有众多国人参与开发,但不能算是国内开源框架。基于MXNet的动手学深度学习(http://zh.d2l.ai & https://discuss.gluon.ai/t/topic/753)中文教程,已经由沐神(李沐)以及阿斯顿·张讲授录制,公开发布(文档+第一季教程+视频)。)
每一次深入都要去翻墙,每一次深入都要Google,每一次看着国内的说:哈工大、讯飞、中科大、百度、阿里多牛逼,但是资料还是得国外去找!
有时候真的挺恨的!真的有点瞧不起自己国内的技术环境!
当然谢谢国内很多博客大佬,特别是一些入门的Demo和基本概念。【深入的水平有限,没看懂】
- 入门教程必看资料【添加比赛链接】: https://github.com/apachecn/AiLearning/tree/master/docs/nlp
- Python 自然语言处理 第二版: https://usyiyi.github.io/nlp-py-2e-zh
- 推荐一个liuhuanyong大佬整理的nlp全面知识体系: https://liuhuanyong.github.io
- 开源 - 词向量库集合: https://github.com/Embedding/Chinese-Word-Vectors
第一部分 入门介绍
- 1.) 自然语言处理入门介绍
第二部分 机器翻译
- 2.) 机器翻译
第三部分 篇章分析
第四部分 UNIT-语言理解与交互技术
- 4.) UNIT-语言理解与交互技术
- 构建DAG图
- 动态规划查找,综合正反向(正向加权反向输出)求得DAG最大概率路径
- 使用了SBME语料训练了一套 HMM + Viterbi 模型,解决未登录词问题
文本分类是指标记句子或文档,例如电子邮件垃圾邮件分类和情感分析。
下面是一些很好的初学者文本分类数据集。
- 路透社Newswire主题分类(路透社-21578)。1987年路透社出现的一系列新闻文件,按类别编制索引。另见RCV1,RCV2和TRC2。
- IMDB电影评论情感分类(斯坦福)。来自网站imdb.com的一系列电影评论及其积极或消极的情绪。
- 新闻组电影评论情感分类(康奈尔)。来自网站imdb.com的一系列电影评论及其积极或消极的情绪。
有关更多信息,请参阅帖子: 单标签文本分类的数据集。
情感分析
比赛地址: https://www.kaggle.com/c/word2vec-nlp-tutorial
- 方案一(0.86):WordCount + 朴素 Bayes
- 方案二(0.94):LDA + 分类模型(knn/决策树/逻辑回归/svm/xgboost/随机森林)
- a) 决策树效果不是很好,这种连续特征不太适合的
- b) 通过参数调整 200 个topic,信息量保存效果较优(计算主题)
- 方案三(0.72):word2vec + CNN
- 说实话:没有一个好的机器,是调不出来一个好的结果 (: 逃
通过AUC 来评估模型的效果
语言建模涉及开发一种统计模型,用于预测句子中的下一个单词或一个单词中的下一个单词。它是语音识别和机器翻译等任务中的前置任务。
它是语音识别和机器翻译等任务中的前置任务。
下面是一些很好的初学者语言建模数据集。
- 古腾堡项目,一系列免费书籍,可以用纯文本检索各种语言。
- 还有更多正式的语料库得到了很好的研究; 例如: 布朗大学现代美国英语标准语料库。大量英语单词样本。 谷歌10亿字语料库。
新词发现
- 中文分词新词发现
- python3利用互信息和左右信息熵的中文分词新词发现
- https://github.com/zhanzecheng/Chinese_segment_augment
句子相似度识别
- 项目地址: https://www.kaggle.com/c/quora-question-pairs
- 解决方案: word2vec + Bi-GRU
文本纠错
- bi-gram + levenshtein
mage字幕是为给定图像生成文本描述的任务。
下面是一些很好的初学者图像字幕数据集。
- 上下文中的公共对象(COCO)。包含超过12万张带描述的图像的集合
- Flickr 8K。从flickr.com获取的8千个描述图像的集合。
- Flickr 30K。从flickr.com获取的3万个描述图像的集合。 欲了解更多,请看帖子:
机器翻译是将文本从一种语言翻译成另一种语言的任务。
下面是一些很好的初学者机器翻译数据集。
- 加拿大第36届议会的协调国会议员。成对的英语和法语句子。
- 欧洲议会诉讼平行语料库1996-2011。句子对一套欧洲语言。 有大量标准数据集用于年度机器翻译挑战; 看到:
机器翻译
- Encoder + Decoder(Attention)
- 参考案例: http://pytorch.apachecn.org/cn/tutorials/intermediate/seq2seq_translation_tutorial.html
问答是一项任务,其中提供了一个句子或文本样本,从中提出问题并且必须回答问题。
下面是一些很好的初学者问题回答数据集。
- 斯坦福问题回答数据集(SQuAD)。回答有关维基百科文章的问题。
- Deepmind问题回答语料库。从每日邮报回答有关新闻文章的问题。
- 亚马逊问答数据。回答有关亚马逊产品的问题。 有关更多信息,请参阅帖子:
数据集:我如何获得问答网站的语料库,如Quora或Yahoo Answers或Stack Overflow来分析答案质量?
语音识别是将口语的音频转换为人类可读文本的任务。
下面是一些很好的初学者语音识别数据集。
- TIMIT声学 - 语音连续语音语料库。不是免费的,但因其广泛使用而上市。口语美国英语和相关的转录。
- VoxForge。用于构建用于语音识别的开源数据库的项目。
- LibriSpeech ASR语料库。从LibriVox收集的大量英语有声读物。
文档摘要是创建较大文档的简短有意义描述的任务。
下面是一些很好的初学者文档摘要数据集。
- 法律案例报告数据集。收集了4000份法律案件及其摘要。
- TIPSTER文本摘要评估会议语料库。收集了近200份文件及其摘要。
- 英语新闻文本的AQUAINT语料库。不是免费的,而是广泛使用的。新闻文章的语料库。 欲了解更多信息:
文档理解会议(DUC)任务。 在哪里可以找到用于文本摘要的良好数据集?
命名实体识别
- Bi-LSTM CRF
- 参考案例: http://pytorch.apachecn.org/cn/tutorials/beginner/nlp/advanced_tutorial.html
- CRF推荐文档: https://www.jianshu.com/p/55755fc649b1
文本摘要
- 抽取式
- word2vec + textrank
- word2vec推荐文档: https://www.zhihu.com/question/44832436/answer/266068967
- textrank推荐文档: https://blog.csdn.net/BaiHuaXiu123/article/details/77847232
- 数据集: data/nlp/graph
- 学习资料: spark graphX实战.pdf 【文件太大不方便提供,自己百度】
如果您希望更深入,本节提供了其他数据集列表。
- 维基百科研究中使用的文本数据集
- 数据集:计算语言学家和自然语言处理研究人员使用的主要文本语料库是什么?
- 斯坦福统计自然语言处理语料库
- 按字母顺序排列的NLP数据集列表
- 该机构NLTK
- 在DL4J上打开深度学习数据
- NLP数据集
- 国内开放数据集: https://bosonnlp.com/dev/resource
Ml 第一期 (2017-02-27)
Ml 第二期 (2017-08-14)
Ml 第三期 (2018-04-16)
Ml 第一期 (2017-02-27)
Ml 第二期 (2017-08-14)
Ml 第三期 (2018-04-16)
Ml 第一届 (2017-09-01)
Ml 第二届 (2018-07-04)
- @张假飞
- @李孟禹
- @小明教主
- @平淡的天
- @凌少skierゞ
- @じ☆νЁ坐看云起
- 古柳-DesertsX
- woodchuck
- 自由精灵
- 楚盟
- 99杆清台
- 时空守望者@
- 只想发论文的渣渣
- 目标: ml劝退专家
Ml 第三届 (2019-01-01)
- 只会喊666的存在
- codefun007.xyz
- 荼靡
- 大鱼
- 青鸟
- 古柳-DesertsX
- Edge
- Alluka
- 不发篇paper不改名片
- FontTian
- Bigjing
- 仁 礼 智 爱
- 可啪的小乖受
- 老古董
- 时空守望者
- 我好菜啊
- Messi 19
欢迎贡献者不断的追加
- ApacheCN 纯粹出于学习目的与个人兴趣翻译本书
- ApacheCN 保留对此版本译文的署名权及其它相关权利
资料来源:
- 【比赛收集平台】: https://github.com/iphysresearch/DataSciComp
- https://github.com/pbharrin/machinelearninginaction
- https://machinelearningmastery.com/datasets-natural-language-processing
以各项目协议为准。
ApacheCN 账号下没有协议的项目,一律视为 CC BY-NC-SA 4.0。