首页 编程教程正文

用python爬取限时免费开放的全部的高教社文科类教材资源

piaodoo 编程教程 2020-02-22 22:17:24 84 0 python教程

本文来源吾爱破解论坛

本帖最后由 龟仔龟龟 于 2020-2-22 20:06 编辑
前言

最近学习了Python , 看到悬赏板块有坛友求批量下载
https://www.52pojie.cn/forum.php?mod=viewthread&tid=1112761&extra=page%3D1%26filter%3Dspecialtype%26specialtype%3Dreward
资源地址:
https://ct.hep.com.cn/public/page/wk.html
于是本着练习的目的实现了上述功能,下面贴上代码,本人刚学没多久,如觉得代码简陋,请勿喷,最好能提些意见供大家学习。

代码
#演示平台Windows10
#Mac、Linux系统请自行更改目录

import requests
from bs4 import BeautifulSoup
import os
import time

#资料保存的根目录
root = 'F:\\book\\'

#构造浏览器访问头
headers = {"User-Agent":"Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 \
(KHTML, like Gecko) Chrome/76.0.3809.87 Safari/537.36",
         "Referer":"https://ct.hep.com.cn/"}

#创建一个列表
#存储资料一级下载地址(因为会有两个302跳转)
resource_urls = []
for i in range(25,1151,25):

    # 这些数字是通过分析得来的
    # URL的构造同理(开发者控制台分析)
        resource_url = 'https://ct.hep.com.cn/public/page/wk-listData.html?' + \
        'pageConfig=%257B%2522start%2522%253A' + str(i) + \
        '%252C%2522limit%2522%253A25%252C%2522condition%2522%253A%255B%255D%257D'
        resource_urls.append(resource_url)

#创建两个列表
#分别存储二级下载地址和书名
download_urls = []
book_names = []        

for resource_url in resource_urls:

    #提取页面信息
    r = requests.get(url = resource_url, headers = headers)
    r.encoding = r.apparent_encoding
    soup = BeautifulSoup(r.text, 'html.parser')
    name = soup

    #进一步提取信息
    soup = soup.find_all('div', 'col-lg-2 col-md-2 col-sm-6 col-xs-6 btnDown')
    names = name.find_all('div', 'col-lg-6 col-md-6 col-sm-12 col-xs-12')

    for name in names:
        book_names.append(name.get_text()) 

    #从一级下载界面提取URL
    for elem in soup:
        elem = elem.find('a')
        elem = elem.get('href')

        #转换为我们需要的最终下载URL
        sep = elem.split('/')
        complete_url = 'http://2d.hep.com.cn/api/v1/pan/resources/' + sep[-2] + '/download'
        download_urls.append(complete_url)

#分别下载资料
for i in range(len(book_names)):

    #path为资料完整路径
    path = root + book_names[i] + '.rar'
    if not os.path.exists(root):
        os.mkdir(root)
    if not os.path.exists(path):
        print(book_names[i] + '下载中')
        try:
            res = requests.get(url = download_urls[i], headers = headers)
            if (res.status_code == 200):
                with open(path, 'wb') as f:
                    f.write(res.content)
                    f.close()
                    sleep(5)
                    print(book_names[i] + '下载完毕')
            else:
                print(book_names[i] + '下载失败')
        except Exception:
            pass          

刚才添加了休眠时间,防止请求过快,会封IP

效果图

Snipaste_2020-02-22_18-57-17.png (24.38 KB, 下载次数: 0)

下载附件  保存到相册

2020-2-22 19:18 上传

Snipaste_2020-02-22_18-57-17.png

Snipaste_2020-02-22_19-51-52.png (110 KB, 下载次数: 0)

下载附件  保存到相册

2020-2-22 19:52 上传

Snipaste_2020-02-22_19-51-52.png

版权声明

本文来源互联网收集,如有版权问题请联系站长,谢谢。

本文链接:https://www.piaodoo.com/8123.html

评论