pujinxiao / zhilian

智联招聘网职位的抓取

Geek Repo:Geek Repo

Github PK Tool:Github PK Tool

相关代码已经修改调试成功----2017-4-7

一、说明

1.目标网址智联招聘

2.实现:对智联招聘上搜索 数据分析 的职位相关信息的爬取,如职位名称、薪资、工作经验等等。具体看如下图:

3.数据:我都存放在百度网盘里面 链接:http://pan.baidu.com/s/1i5okiZb 密码:xnig

爬取的是热门城市的**数据分析**职位信息 ['北京','上海', '广州', '深圳', '天津', '武汉', '西安', '成都', '大连', '长春', '沈阳', '南京', '济南', '青岛','杭州', '苏州', '无锡', '宁波', '重庆', '郑州', '长沙', '福州', '厦门', '哈尔滨', '石家庄', '合肥', '惠州'] **一共50111条记录**。

二、运行

  1. 先设置好place_name.py文件中 place_namejob_name,你要爬取的城市名称和职位名称。
  2. zhilian.py中配置好数据库信息的函数。
  3. 最后运行zhilian.py文件即可。

三、问题----欢迎留言提出问题

声明:本项目爬取的数据主要是给同事做数据分析

  1. 其实对智联的爬取一直觉得爬取的速度很慢,用睡眠1-3秒来避免IP被禁,不知道怎么改成多线程或者是多进程?(待解决)
  2. ........

欢迎有兴趣的小伙伴帮我优化,解决以上问题,之后我将合并你的代码,作为贡献者,共同成长。


如果本项目对你有用请给我一颗star,万分感谢。

补充:网友提出建议

(已添加进去)在你的爬虫zhilian的基础上,增加了两个点:
	1、支持多个关键词爬取。
	2、将关键词保存到数据库中 

About

智联招聘网职位的抓取


Languages

Language:Python 100.0%