# -*- codeing = utf-8 -*- # @Time: 2022/4/8 0:02 # @Software: PyCharm # @File: wallhavenBiZhi.py import requests from lxml import etree import time import random class BZ(): # 实例化etree def tree(self,e): return etree.HTML(e) #获取到图片的content def getBZ(self,url): # 翻页10页 for page in range(1,10): headers = { # 'referer': 'https://wallhaven.cc/', 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/92.0.4515.159 Safari/537.36', } print(time.strftime("%H:%M:%S")) #随机爬取第1到50页 # page=random.randint(1,50) print("第{}页".format(page)) url1 = url.format(page) # 一级页面请求 html = requests.get(url=url1, headers=headers, timeout=5.0).text data = self.tree(html) li_list = data.xpath('.//div[@id="thumbs"]//li') # print(li_list) # 每一张图片的url地址 for li in li_list: img = li.xpath('.//img[@class="lazyload"]/@data-src') if img: img=img[0] img_end=img[-10:] tupian_url='https://w.wallhaven.cc/full/'+img[-10:-8]+'/wallhaven-'+img_end tupian = requests.get(url=tupian_url, headers=headers, timeout=5.0) if tupian.status_code == 404: # print(img_end) img_end = img_end[:-3] + 'png' tupian_url = 'https://w.wallhaven.cc/full/' + img[-10:-8] + '/wallhaven-' + img_end tupian = requests.get(url=tupian_url, headers=headers, timeout=5.0) content_picture = tupian.content self.save_picture(img_end,content_picture) print(tupian_url) # 保存图片 def save_picture(self,img_end,content_picture): # 保存路径 with open('C:/Users/19873/Pictures/bizhi/' + img_end, 'wb') as file: file.write(content_picture) print('保存完成' + time.strftime("%H:%M:%S")) if __name__ == '__main__': url='https://wallhaven.cc/hot?page={}' bz=BZ() bz.getBZ(url)
python教程
Python爬取wallhaven壁纸脚本
- Python壁纸
- Python脚本
- python爬虫
-
Python自动爬取轻壁纸网站脚本
吾爱大佬分享的一个免费壁纸网站-轻壁纸,都是高清免费壁纸,附加一段Python自动爬取轻壁纸的脚本,0分钟换一张壁纸,都是4K 2K的壁纸。Python爬取脚本import requestsfrom pathlib import Pathfrom lxml import etreefrom rich import printfrom loguru im...
-
github+Python自动爬取bing壁纸并上传百度网盘
import requestsimport base64from datetime import datetimefrom datetime import timedeltafrom datetime import timezonefrom bs4 import BeautifulSoupimport timeimport ddddocrimport osbaidu_cookie = os.environ["BAIDU_COOKIE"] SHA_TZ = ...
-
Python爬取wallhaven壁纸脚本
# -*- codeing = utf-8 -*-# @Time: 2022/4/8 0:02# @Software: PyCharm# @File: wallhavenBiZhi.pyimport requestsfrom lxml import etreeimport timeimport random class BZ(): # 实例化etree def tree(self,e): return etree.HTM...
-
监测腾讯云轻量服务器流量超标关机python脚本
脚本介绍一款监测腾讯云轻量应用服务器流量包使用情况,并根据配置进行警告和关机的Python脚本。GitHub:https://github.com/XiaoXinYo/Tencent_Cloud_LightHouse_Server_Guardian脚本功能仅用于轻量级服务器1.自动检测流量包剩余,可设置使用比2.自动关...
-
Python无需认证QQ扫码登录脚本
无需认证QQ扫码登录脚本python脚本,盗用JD的QQ登录,也可以改成其他网址。无需自己注册腾讯开发者,无需自己有一套网址去申请应用Get_QQ返回QQ号,也可以获取到QQ头像、好友等其他信息,请勿用于非法行为import requestsimport timefrom PIL import Imagedef...
-
最新python织梦dedecms远程执行脚本
织梦CMS是使用最多的CMS之 一,但是漏洞也非常多。分享一款python写的织梦远程文件包含漏洞。修复此漏洞方法,请见文章底部。织梦CMS漏洞代码#! /usr/bin/env python#coding=utf-8#Joseph(小续)import requestsimport sysimport redef main():try:url="...
-
Python好看视频地址解析下载代码
#encoding:utf-8# 好看视频下载 import socketfrom urllib.request import urlopenimport urllibimport reimport timefrom pyquery import PyQuery as pqimport requestsfrom tqdm import tqdm # 打印进度条的库import gzip print('程序开始运...
-
python美女写真图库爬虫
import requestsfrom lxml import etreeimport csvfrom time import sleepimport osfrom concurrent.futures import ThreadPoolExecutor headers = { 'user-agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_6) AppleWebKit...
-
笔趣阁小说网Python爬虫分享
#[url=https://www.biquge.info/wanjiexiaoshuo/]https://www.biquge.info/wanjiexiaoshuo/[/url] 笔趣阁小说全本爬虫import timeimport requestsimport osimport randomfrom lxml import etreeimport webbrowserheader = { "User-Agent": "Mo...
-
Python获取彩云天气实时天气API源码
import requests # 用户输入的秘钥和经纬度(以逗号分隔)api_key = "" # 这里输入用户自己的秘钥location = "...
-
基于Django的RustDesk Api&Web Server源码分享
项目介绍一个 python 实现的 Rustdesk API 接口,支持 WebUI 管理。基于Django的RustDes...
-
批量修改照片文件大小Python脚本
一段批量修改照片文件大小Python脚本,输入和输出图片文件夹,图片你的最大和最小标准,批量调整照片文件大小。# ...
-
文本段落自动分隔格式化Python脚本
我们在做网站时,需要处理大量的文本内容,要求文本段落内容按我们的格式分隔排版,手动一个个的修改就非常浪费时...
-
利用ffmpeg提取视频第一帧保存成图片
做影视采集站的找不到影视封面可以试试这个方法,利用ffmpeg提取视频第一帧保存成图片,这样就省去了找封面图的...