admin管理员组文章数量:1542453
爬个妹子总是没过,没办法,咱们来爬爬招聘网站吧~
本次以前程无忧为例,看看Python的工资如何。
这是今天的重点
1、爬虫的基本流程
2、re正则表达式模块的简单使用
3、requests模块的使用
4、保存csv
使用的软件
python 3.8
pycharm 2021专业版
pycharm 社区版 (免费) 没有主题
专业版 (需要激活码)
使用的模块
requests >>> pip install requests (数据请求模块) 第三方模块
re
json
csv
time
爬虫最基本的思路
一. 数据来源分析
- 确定我们要的爬取的内容是什么?
招聘基本数据信息 - 通过开发者工具进行抓包分析, 分析这些数据是从哪里可以获得
开发者工具怎么打开 : F12 或者 鼠标右键点击检查
二. 代码实现步骤: 发送请求 >>> 获取数据 >>> 解析数据 >>> 保存数据
- 发送请求, 对于url地址发送请求
https://search.51job/list/010000%252C020000%252C030200%252C040000%252C090200,000000,0000,00,9,99,python,2,1.html - 获取数据, 获取服务器发给我们返回的数据响应数据
- 解析数据, 提取我们想要的数据内容 (比如 招聘标题, 招聘薪资…)
- 保存数据, 保存到csv文件
OK,思路都清楚的话,咱们来康康代码。
首先导入模块
import requests # 数据请求 第三方模块 pip install requests
import re # 正则表达式模块
import json # 序列化与反序列化
import pprint # 格式化输出模块
import csv # 保存csv数据
算了,我直接贴代码吧,流程都写清楚了,我把注释也标上了。
关于这篇文章,也有相对应的视频教程:
(<> “复制代码”)
f = open('python招聘数据1.csv', mode='a', encoding='utf-8', newline='')
csv_writer = csv.DictWriter(f, fieldnames=[
'标题',
'公司名字',
'城市',
'薪资',
'招聘信息',
'公司属性',
'公司规模',
'企业性质',
'招聘发布日期',
'公司详情页',
'招聘详情页',
])
csv_writer.writeheader() # 写入表头数据
for page in range(1, 11):
# 1. 发送请求, 对于url地址发送请求
url = f'https://search.51job/list/010000%252C020000%252C030200%252C040000%252C090200,000000,0000,00,9,99,python,2,{page}.html'
# 把python代码进行伪装, 伪装浏览器对服务器发送请求
# User-Agent 浏览器的基本信息
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/95.0.4638.54 Safari/537.36'
}
response = requests.get(url=url, headers=headers) # 调用 requests这个模块里面get方法对于 url发送请求
# 2. 获取数据, 获取服务器发给我们返回的数据响应数据
# <Response [200]> <> 表示response响应对象 200 状态码 表示请求成功
# response.text 获取响应体的文本数据(网页源代码)
# print(response.text)
# 3. 解析数据, 提取我们想要的数据内容 (比如 招聘标题, 招聘薪资...)
# 解析方法: re正则表达式, css选择器 xpath 根据服务器返回的数据内容, 选择最适合的解析方式
# 遇事不决 .*? 元字符 . 可以匹配任意字符串除了换行符以外 * 匹配前一个字符串 0个或者多个 ? 非贪婪匹配模式
# [] 表示列表
# {} 可能想到的是字典数据类型
# .*? 可以匹配任意字符串 除了 换行符\n
# 通过re模块调用 findall 方法 'window.__SEARCH_RESULT__ = (.*?)</script>' 要匹配的数据内容 response.text从哪里匹配数据 [0] 列表索引取第一个元素
# 正则表达式详细内容讲解 在VIP课程里面 要讲三个小时左右
html_data = re.findall('window.__SEARCH_RESULT__ = (.*?)</script>', response.text, re.S)[0]
# print(html_data)
# print(type(html_data))
# 把这个字符串数据类型 转成 字典数据类型 通过键值对取值方式提取想要的内容
json_data = json.loads(html_data)
# print(type(json_data))
# 字符串的时候 里面的引号是双引号 字典时候就变成了单引号
# print(json_data)
# pprint.pprint(json_data['engine_jds'])
# 字典取值 根据冒号左边的内容, 提取冒号右边的内容
# parsel 数据解析
for index in json_data['engine_jds']:
# pprint.pprint(index)
dit = {
'标题': index['job_name'],
'公司名字': index['company_name'],
'城市': index['workarea_text'],
'薪资': index['providesalary_text'],
'招聘信息': '|'.join(index['attribute_text']),
'公司属性': index['companyind_text'],
'公司规模': index['companysize_text'],
'企业性质': index['companytype_text'],
'招聘发布日期': index['issuedate'],
'公司详情页': index['company_href'],
'招聘详情页': index['job_href'],
}
csv_writer.writerow(dit)
print(dit)
[
关于Python的技术储备
在这里给大家分享一些免费的课程供大家学习,下面是课程里面的截图,扫描最下方的二维码就能全部领取
1.Python所有方向的学习路线
2.学习软件
工欲善其事必先利其器。学习Python常用的开发软件都在这里了,给大家节省了很多时间。
3.学习资料
4.实战资料
实践是检验真理的唯一标准。这里的压缩包可以让你再闲暇之余帮你提升你的个人能力。
5.视频课程
好啦今天的分享就到这里结束了,快乐的时光总是短暂呢,想学习更多课程的小伙伴不要着急,有更多惊喜哦~
版权声明:本文标题:【Python爬虫】招聘网站实战合集第一弹:爬取前程无忧 内容由热心网友自发贡献,该文观点仅代表作者本人, 转载请联系作者并注明出处:https://m.elefans.com/xitong/1727071215a1096189.html, 本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。
发表评论