前言
嗨喽,大家好呀~这里是爱看美女的茜茜呐
又到了学Python时刻~
你还在为一个一个下载壁纸而烦恼吗,那有没有更加简单的方法呢?
跟着我,一起来看看我是如何批量下载的吧
环境使用:
-
python3.8 | Anaconda
-
pycharm
相关模块:
-
requests >>> pip install requests
-
parsel
模块安装方法:win + R 输入 cmd 点击确定, 输入安装命令 pip install 模块名, 回车
插 件:
xpath helper扩展工具包
安装步骤:先获取xpath helper扩展工具包(注意:不要解压)
》》 打开Google浏览器 --> 更多工具 --> 扩展程序 --> 打开开发者模式 --> 把xpath helper扩展工具包直接拖入 --> 刷新
使用方法:快捷键 ctrl+shift+X
基本思路
1.网页的图片怎么来的?
写代码(爬虫): 网页源代码 浏览器 --> 解析数据
第一页 --> 41页
-
发送请求
-
响应数据
-
解析数据 图片
-
保存数据
代码
import requests # 需要下载 知道 1 不知道 2 pip install requests win+R --> cmd import re # 正则 不需要下载 import parsel #数据解析 需要下载
# 伪装 headers = { # 用户代理 浏览器基本的身份信息 \'user-agent\': \'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/101.0.0.0 Safari/537.36\' } # 发送请求 response数据请求状态 response = requests.get(url,headers) # print 打印输出 <Response [200]> 响应对象 200 状态码 成功 print(response) \"\"\" 2.响应数据 网页源代码 \"\"\" # print(response.text) \"\"\" 3.解析数据 图片 re \"\"\" # .*? 精准查找 re_data = re.findall(\'<a href=\"(.*?)\" target=\"_blank\"rel=\"bookmark\">(.*?)</a>\',response.text) print(re_data) # for循环 for link,title in re_data: # print(link) response_1 = requests.get(link, headers).text # print(response_1) # 解析数据 标签详情页 selector = parsel.Selector(response_1) # css:定位 img_url 图片链接 img_url = selector.css(\'.entry-content img::attr(src)\').getall() # print(img_url) for img in img_url: print(img) img_name = img.split(\'/\')[-1] # content 二进制 content = requests.get(img,headers).content \"\"\" 4.保存数据 \"\"\" with open(\'img\\\\\'+ img_name, mode=\'wb\') as file: file.write(content)
文章看不懂,我专门录了对应的视频讲解,本文只是大致展示,完整代码和视频教程点击下方蓝字
==点击 蓝色字体 自取,我都放在这里了。==
尾语 💝
感谢你观看我的文章呐~本次航班到这里就结束啦 🛬
希望本篇文章有对你带来帮助 🎉,有学习到一点知识~
躲起来的星星🍥也在努力发光,你也要努力加油(让我们一起努力叭)。
最后,博主要一下你们的三连呀(点赞、评论、收藏),不要钱的还是可以搞一搞的嘛~
不知道评论啥的,即使扣个6666也是对博主的鼓舞吖 💞 感谢 💐
来源:https://www.cnblogs.com/Qqun261823976/p/16693282.html
本站部分图文来源于网络,如有侵权请联系删除。