python教程

Python爬取wallhaven壁纸脚本

我的站长站 2022-07-06 人阅读
# -*- codeing = utf-8 -*-
# @Time: 2022/4/8 0:02
# @Software: PyCharm
# @File: wallhavenBiZhi.py
import requests
from lxml import etree
import time
import random
 
 
class BZ():
 
    # 实例化etree
    def tree(self,e):
        return etree.HTML(e)
 
    #获取到图片的content
    def getBZ(self,url):
 
        # 翻页10页
        for page in range(1,10):
 
            headers = {
                # 'referer': 'https://wallhaven.cc/',
                'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/92.0.4515.159 Safari/537.36',
            }
            print(time.strftime("%H:%M:%S"))
 
            #随机爬取第1到50页
            # page=random.randint(1,50)
            print("第{}页".format(page))
 
            url1 = url.format(page)
            # 一级页面请求
            html = requests.get(url=url1, headers=headers, timeout=5.0).text
            data = self.tree(html)
            li_list = data.xpath('.//div[@id="thumbs"]//li')
            # print(li_list)
            # 每一张图片的url地址
            for li in li_list:
                img = li.xpath('.//img[@class="lazyload"]/@data-src')
                if img:
                    img=img[0]
                    img_end=img[-10:]
 
                    tupian_url='https://w.wallhaven.cc/full/'+img[-10:-8]+'/wallhaven-'+img_end
 
                    tupian = requests.get(url=tupian_url, headers=headers, timeout=5.0)
                    if tupian.status_code == 404:
                        # print(img_end)
                        img_end = img_end[:-3] + 'png'
 
                        tupian_url = 'https://w.wallhaven.cc/full/' + img[-10:-8] + '/wallhaven-' + img_end
 
                        tupian = requests.get(url=tupian_url, headers=headers, timeout=5.0)
 
 
                    content_picture = tupian.content
 
                    self.save_picture(img_end,content_picture)
                    print(tupian_url)
 
    # 保存图片
    def save_picture(self,img_end,content_picture):
        # 保存路径
 
        with open('C:/Users/19873/Pictures/bizhi/' + img_end, 'wb') as file:
            file.write(content_picture)
 
            print('保存完成' + time.strftime("%H:%M:%S"))
 
 
if __name__ == '__main__':
    url='https://wallhaven.cc/hot?page={}'
    bz=BZ()
    bz.getBZ(url)


相关推荐
  • Python壁纸
  • Python脚本
  • python爬虫
  • Python自动爬取轻壁纸网站脚本

    吾爱大佬分享的一个免费壁纸网站-轻壁纸,都是高清免费壁纸,附加一段Python自动爬取轻壁纸的脚本,0分钟换一张壁纸,都是4K 2K的壁纸。Python爬取脚本import requestsfrom pathlib import Pathfrom lxml import etreefrom rich import printfrom loguru im...

    python教程 50 1年前
  • github+Python自动爬取bing壁纸并上传百度网盘

    import requestsimport base64from datetime import datetimefrom datetime import timedeltafrom datetime import timezonefrom bs4 import BeautifulSoupimport timeimport ddddocrimport osbaidu_cookie = os.environ["BAIDU_COOKIE"] SHA_TZ = ...

    python教程 75 1年前
  • Python爬取wallhaven壁纸脚本

    # -*- codeing = utf-8 -*-# @Time: 2022/4/8 0:02# @Software: PyCharm# @File: wallhavenBiZhi.pyimport requestsfrom lxml import etreeimport timeimport random class BZ(): # 实例化etree def tree(self,e): return etree.HTM...

    python教程 64 1年前
  • 监测腾讯云轻量服务器流量超标关机python脚本

    脚本介绍一款监测腾讯云轻量应用服务器流量包使用情况,并根据配置进行警告和关机的Python脚本。GitHub:https://github.com/XiaoXinYo/Tencent_Cloud_LightHouse_Server_Guardian脚本功能仅用于轻量级服务器1.自动检测流量包剩余,可设置使用比2.自动关...

    python教程 75 1年前
  • Python无需认证QQ扫码登录脚本

    无需认证QQ扫码登录脚本python脚本,盗用JD的QQ登录,也可以改成其他网址。无需自己注册腾讯开发者,无需自己有一套网址去申请应用Get_QQ返回QQ号,也可以获取到QQ头像、好友等其他信息,请勿用于非法行为import requestsimport timefrom PIL import Imagedef...

    python教程 291 2年前
  • 最新python织梦dedecms远程执行脚本

    织梦CMS是使用最多的CMS之 一,但是漏洞也非常多。分享一款python写的织梦远程文件包含漏洞。修复此漏洞方法,请见文章底部。织梦CMS漏洞代码#! /usr/bin/env python#coding=utf-8#Joseph(小续)import requestsimport sysimport redef main():try:url="...

    服务器配置 282 4年前
  • Python好看视频地址解析下载代码

    #encoding:utf-8# 好看视频下载 import socketfrom urllib.request import urlopenimport urllibimport reimport timefrom pyquery import PyQuery as pqimport requestsfrom tqdm import tqdm # 打印进度条的库import gzip print('程序开始运...

    python教程 101 2年前
  • python美女写真图库爬虫

    import requestsfrom lxml import etreeimport csvfrom time import sleepimport osfrom concurrent.futures import ThreadPoolExecutor headers = { 'user-agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_6) AppleWebKit...

    python教程 43 2年前
  • 笔趣阁小说网Python爬虫分享

    #[url=https://www.biquge.info/wanjiexiaoshuo/]https://www.biquge.info/wanjiexiaoshuo/[/url] 笔趣阁小说全本爬虫import timeimport requestsimport osimport randomfrom lxml import etreeimport webbrowserheader = { "User-Agent": "Mo...

    python教程 140 2年前
最新更新