S-lonng / MachineLearningInAction-Camp

Geek Repo:Geek Repo

Github PK Tool:Github PK Tool

《机器学习实战》训练营

课程资料

课程安排

总课时:12 周

基础:第 1 章

分类: 第 1~7 章

预测:第 8~9 章

无监督式学习:第 10 章

降维与分布式:第 13~14 章

第一周

0 自测与比赛

  • 0.1 机器学习笔试100题

  • 0.2 天池比赛流程解析

1 机器学习基础

  • 1.1 Python 基础知识,Numpy、pandas、Matplotlib 等库的简介

  • 1.2 开发环境的搭建:Python3 + Anaconda + Jupyter Notebook

  • 1.3 Jupyter Notebook 使用简介

2 k-近邻算法

  • 2.1 k-近邻算法概述

  • 2.2 示例:使用 k-近邻算法改进网站的配对效果

  • 2.3 示例:手写识别系统

第二周

3 决策树

  • 3.1 决策树的构造

  • 3.3 测试和存储分类器

  • 3.4 示例:使用决策树预测隐形眼镜类型

第三周

4 基于概率论的分类方法:朴素贝叶斯

  • 4.1 基于贝叶斯决策理论的分类方法

  • 4.2 条件概率

  • 4.3 使用条件概率来分类

  • 4.4 使用朴素贝叶斯进行文档分类

  • 4.5 使用 Python 进行文本分类

  • 4.6 示例:使用朴素贝叶斯过滤垃圾邮件

第四周

5 Logistic回归

  • 5.1 基于 Logistic 回归和 Sigmoid 函数的回归

  • 5.2 基于最优化方法的最佳回归系数确定

  • 5.3 示例:从疝气病症预测病马的死亡率

第五周

  • 天池o2o预测赛(初级)

第六周

6 支持向量机

  • 6.1 基于最大间隔分隔数据

  • 6.2 寻找最大间隔

  • 6.3 SMO 高效优化算法

  • 6.4 利用完整 Platt SMO 算法加速优化

  • 6.5 在复杂数据上应用核函数

  • 6.6 手写识别问题

第七周

7 利用 AdaBoost 元算法提高分类性能

  • 7.1 基于数据 多重抽样的分类器

  • 7.2 训练算法:基于错误提升分类器的性能

  • 7.3 基于单层决策树构建弱分类器

  • 7.4 完整 AdaBoost 算法的实现

  • 7.5 测试算法:基于 AdaBoost 的分类

  • 7.6 示例:在一个难数据集上应用 AdaBoost

  • 7.7 非均衡分类问题

第八周

8 预测数值型数据:回归

  • 8.1 用线性回归找到最佳拟合直线

  • 8.2 局部加权线性回归

  • 8.3 示例:预测鲍鱼的年龄

  • 8.4 缩减系数来“理解”数据

  • 8.5 权衡偏差和方差

第九周

9 树回归

  • 9.1 复杂数据的局部性建模

  • 9.2 连续和离散型特征的树的构建

  • 9.3 将 CART 算法用于回归

  • 9.4 树减枝

  • 9.5 模型树

  • 9.6 示例:树回归于标准回归的比较

第十周

  • 天池o2o预测赛(进阶)

第十一周

10 利用 K-均值聚类算法对未标注数据分组

  • 10.1 K-均值聚类算法

  • 10.2 使用后处理来提高聚类性能

  • 10.3 二分 K-均值算法

  • 10.4 示例:对地图上的点进行聚类

第十二周

13 利用PCA来简化数据

  • 13.1 降纬技术

  • 13.2 PCA

  • 13.3 示例:利用 PCA 对半导体制造数据降维

14 利用SVD简化数据

  • 14.1 SVD 的应用

  • 14.2 矩阵分解

  • 14.3 利用 Python 实现 SVD

  • 14.4 基于协调过滤的推荐引擎

  • 14.5 示例:餐馆菜肴推荐引擎

  • 14.6 示例:基于 SVD 的图像压缩

About


Languages

Language:Jupyter Notebook 92.5%Language:HTML 6.2%Language:Python 1.4%