之前好多高质量网站都不见了,肯定是你们整活整多了,趁你们不注意,我先悄悄多保存点~
事前准备
让我们开始今天的操作
1、环境配置**
安装一个Python和pycharm就好了
2、模块使用
requests # 数据请求 parsel # 解析模块 (提取数据)
这两个模块没有安装的话,先安装一下,win+R 输入cmd 按回车弹出命令提示符窗口,输入 pip install 加上模块名即可 , 如:pip install requests
然后按回车即可安装成功,详细教程见置顶文章,我有详细介绍。
3、如何配置pycharm里面的python解释器?
- 选择file(文件) >>> setting(设置) >>> Project(项目) >>> python interpreter(python解释器)
- 点击齿轮, 选择add
- 添加python安装路径
4、pycharm如何安装插件?
- 选择file(文件) >>> setting(设置) >>> Plugins(插件)
- 点击 Marketplace 输入想要安装的插件名字 比如:翻译插件 输入 translation / 汉化插件 输入 Chinese
- 选择相应的插件点击 install(安装) 即可;
- 安装成功之后 是会弹出 重启pycharm的选项 点击确定, 重启即可生效;
5、基本流程
基本上所有的爬虫都是这个步骤
一. 数据来源分析
- 抓取网站是什么?想要获取网站什么样数据内容?比如爬取图片,从一张图片去分析,通过开发者工具进行抓包分析, 对比我们想要图片url地址一些参数;
二. 代码实现步骤:
- 发送请求, 对于分析得到url地址发送请求;
请求网址
请求方式
请求头参数 >>> 伪装 可以把python代码伪装成浏览器(客户端)发送请求;
如果不进行伪装会有什么后果 >>> 不会给你返回你想要数据;
2. 获取数据,获取response服务器返回响应数据;
3. 解析数据,提取我们想要数据内容,图片url地址以及图片标题;
4. 保存数据,把图片数据保存到本地;
代码解析
开始展示代码吧,不然大家想打我了~
1、模块导入
首先把我们需要用的模块导入进去,导入数据请求模块和数据解析模块,导入模块没有使用, 灰色待机状态。
import requests import parsel
2、发送请求
headers 请求头参数, 可以开发者工具里面直接进行复制, 其次headers字典数据类型, 键值对;
user-agent: 用户代理 表示浏览器基本身份标识;
cookie: 用户信息, 检测用户是否有登陆账号;
for page in range(2, 11): url = f\'htpps://sj.enterdesk.com/woman/{page}.html\' headers = { \'cookie\': \'t=f2cf055ce8713058cbfdbd1561c38e86; r=1281; Hm_lvt_86200d30c9967d7eda64933a74748bac=1645625923,1646892448; Hm_lpvt_86200d30c9967d7eda64933a74748bac=1646894465\', \'user-agent\': \'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/99.0.4844.51 Safari/537.36\' } response = requests.get(url=url, headers=headers) # <Response [200]> 返回响应对象 200状态码标识请求成功
3、获取数据
获取服务器返回数据内容, 获取响应对象文本数据/字符串数据。
返回数据内容和我们在开发者工具里面看到不一样,说明你被服务器识别出来是你爬虫程序,所以他没有给你返回数据。
print(response.text)
4、解析数据
css选择器 xpath re 三种解析方式都可以去用选择最适合;
css选择器: 根据标签属性提取数据内容;
对于获取response.text 进行数据类型转换 转成 selector 对象
attr() 属性选择器 .egeli_pic_li .egeli_pic_dl dd a img 都是定位标签, 告诉它是哪一个标签
img::attr(src) 取img标签里面的src属性数据
getall() 获取所有标签内容数据 返回列表数据类型
selector = parsel.Selector(response.text) src = selector.css(\'.egeli_pic_li .egeli_pic_dl dd a img::attr(src)\').getall() alt = selector.css(\'.egeli_pic_li .egeli_pic_dl dd a img::attr(alt)\').getall() for img_url, title in zip(src, alt): img_url = img_url.replace(\'edpic_360_360\', \'edpic_source\')
5、保存数据
img_content = requests.get(url=img_url, headers=headers).content # 获取二进制数据内容 with open(\'img\\\\\' + title + \'.jpg\', mode=\'wb\') as f: f.write(img_content) print(img_url, title)
好了,代码就到这里结束了,采集结果我也不知不觉给大家展示在文中了,大家细细品味~
兄弟们,敲代码要勤快,永远不要用战术上的勤奋,来掩饰战略上的懒惰。
记得点赞收藏~
来源:https://www.cnblogs.com/hahaa/p/16383244.html
本站部分图文来源于网络,如有侵权请联系删除。