首页 编程教程正文

python爬取 优美图库 美女写真

piaodoo 编程教程 2020-02-22 22:16:55 1133 0 python教程

本文来源吾爱破解论坛

本帖最后由 QingYeMuRong 于 2020-2-2 14:18 编辑

源码分享  附件文件自己下载,下载后把后缀.txt修改成.py就可以了,  这个爬虫使用的是for循环,适合新手学习。有兴趣的朋友可以自己改成def函数形式或者class类。
Author = QingYeMuRong

    import requests
    from lxml import etree
    from urllib.request import urlretrieve
    from urllib.parse import urlencode
    import re
    import os
    import time
    import random
    ua = [  "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/60.0.3112.113 Safari/537.36", #chrome
                                    "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1; Trident/4.0; SE 2.X MetaSr 1.0; SE 2.X MetaSr 1.0; .NET CLR 2.0.50727; SE 2.X MetaSr 1.0)", #搜狗
                                    "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1; 360SE)", #360
                                    "Mozilla/5.0 (Windows NT 6.1; WOW64; rv:34.0) Gecko/20100101 Firefox/34.0" #火狐
                                    ]
    headers ={
                    "User-Agent":random.choice(ua)
                    }
    print(random.choice(ua))
    for i in range(1,2):  #可以自己定义爬取页数  这个文档就爬取1页
                    url = "http://www.umei.cc/meinvtupian/meinvxiezhen/"+str(i)+".htm"
                    res = requests.get(url,headers=headers)
                    data = res.content.decode('utf-8')
                    treeData = etree.HTML(data)
                    title = treeData.xpath('//title/text()')
                    print(title)
                    urls = treeData.xpath('//*[@class="TypeList"]/ul/li/a/@href') #起始地址url
                    titles = treeData.xpath('//*[@class="TypeList"]/ul/li/a/div/text()') #所有的url起始地址名称
                    print(urls)
                    print(titles)
                    for j in range(0,len(urls)):
                                    k=titles[j]
                                    file = 'D:/photos/'+k #D盘创建一个photos 文件夹 保存照片
                                    # 判断文件是否存在,不存在则创建
                                    #获取页数
                                    res1 = requests.get(urls[0],headers=headers)
                                    data1 = res1.content.decode('utf-8')
                                    part1 = '<li><a>共(.*?)页'
                                    url_num =re.compile(part1,re.S).findall(data1)
                                    print(url_num[0])
                                    if not os.path.exists(file):
                                                    os.makedirs(file)
                                                    print('--创建成功--')

                                    for n in range(0,eval(url_num[0])):
                                                    if n==0 :
                                                                    urls3 = urls[j]
                                                    else:
                                                                    urls3 = urls[j][:-4]+'_'+str(n+1)+'.htm'
                                                                    # print(urls3)
                                                    print(urls3)
                                                    try:
                                                                    res2 = requests.get(urls3,headers=headers)
                                                                    data2 = res2.content.decode('utf-8')
                                                                    # print(data1)
                                                                    part2 = '<img alt.*?src="(.*?)" />'
                                                                    photo_url = re.compile(part2,re.S).findall(data2)
                                                                    print(photo_url)
                                                                    path = 'D:/photos/'+k+'/'+str(n+1)+'.jpg'
                                                                    urlretrieve(photo_url[0],path)
                                                                    print("下载完成,程序挂起0.5s") #防止爬取速度过快
                                                                    time.sleep(0.5)
                                                    except Exception as err:
                                                                    print(err)

Ashampoo_Snap_2020年2月2日_13h09m29s_002_.png (170.43 KB, 下载次数: 9)

下载附件  保存到相册

2020-2-2 13:20 上传

Ashampoo_Snap_2020年2月2日_13h09m29s_002_.png

Ashampoo_Snap_2020年2月2日_13h09m59s_003_.png (144.75 KB, 下载次数: 6)

下载附件  保存到相册

2020-2-2 13:20 上传

Ashampoo_Snap_2020年2月2日_13h09m59s_003_.png

Ashampoo_Snap_2020年2月2日_13h08m48s_001_.png (34.44 KB, 下载次数: 3)

下载附件  保存到相册

2020-2-2 13:19 上传

Ashampoo_Snap_2020年2月2日_13h08m48s_001_.png
嗨学网

Umei.txt

2020-2-2 13:26 上传

点击文件名下载附件

下载积分: 吾爱币 -1 CB

2.63 KB, 下载次数: 158, 下载积分: 吾爱币 -1 CB

某度无法分享,下载后把后缀.txt改成.py就行

版权声明:

本站所有资源均为站长或网友整理自互联网或站长购买自互联网,站长无法分辨资源版权出自何处,所以不承担任何版权以及其他问题带来的法律责任,如有侵权或者其他问题请联系站长删除!站长QQ754403226 谢谢。

有关影视版权:本站只供百度云网盘资源,版权均属于影片公司所有,请在下载后24小时删除,切勿用于商业用途。本站所有资源信息均从互联网搜索而来,本站不对显示的内容承担责任,如您认为本站页面信息侵犯了您的权益,请附上版权证明邮件告知【754403226@qq.com】,在收到邮件后72小时内删除。本文链接:http://www.piaodoo.com/8095.html

评论

搜索

游戏网站源码,织梦网站源码,wordpress,wordpress主题,wordpress下载,wordpress插件,wordpress.com,wordpress模板,wordpress教程,wordpress 主题,wordpress安装,wordpress 模板,wordpress 插件,wordpress主题下载,wordpress企业主题,wordpress seo,wordpress主题开发,wordpress theme,wordpress论坛,wordpress 企业主题,wordpress主机,wordpress中文主题,wordpress cms主题,wordpress plugin,wordpress 主题下载,wordpress 主机,wordpress空间,wordpress mu,wordpress 模版,wordpress汉化主题,wordpress淘宝客主题,wordpress 空间,wordpress代码,WORDPRESS HOSTING,wordpress优点,wordpress安卓客户端,wordpress技巧,wordpress换空间,wordpress themes,网站模板,ppt模板网站,模板网站,企业网站模板,网站设计模板,免费网站模板,个人网站模板,ppt模板下载网站,网站模板下载,公司网站模板,门户网站模板,学校网站模板,网站首页模板,网站模板免费下载,旅游网站模板,网站后台模板,免费网站模板下载,传奇网站模板,网站建设模板,外贸网站模板,网站 模板,个人主页网站模板,个人网站模板下载,政府网站模板,音乐网站模板,导航网站模板,免费企业网站模板,企业网站模板下载,手表网站模板,韩国网站模板,汽车网站模板,教育网站模板,网站后台管理模板,班级网站模板,新闻网站模板,房产中介网站模板,旅游网站模板下载,工艺品网站模板,电子商务网站模板,旅游网站设计模板,团购网站模板,flash网站模板,个人网站设计模板,婚庆网站模板,广告公司网站模板,商业网站模板,手机网站模板,免费模板网站推荐,ppt免费模板网站推荐,织梦网站模板,html网站模板建站,网站html模板,免费个人网站模板,公司网站源码,sns源码,彩票网站源码,周易网站源码,源码基地,交友源码,学校网站源码,asp.net 源码,源码天下,jsp网站源码,论坛源码下载,广告联盟源码,建站源码,delphi源码,源码爱好者,酷源码,net源码,源码超市,医疗网站源码,flash源码,搜源码,源码程序,dede源码,新闻网站源码,易语言源码大全,旅游网站源码下载,flash 源码,免费源码论坛,android游戏源码,电脑维修网站源码,30源码网,股票软件源码,卖源码,源码教程,安居客 源码,vip源码,家教源码,.net源码下载,Web源码,网络公司源码,佛教网站源码,android源码学习,房产源码,钓鱼网站源码,775源码屋,web游戏源码,成品网站 源码78w78不用下载,h5游戏网站源码,asp网站源码下载,webgame源码,电子商务网站源码,vb.net源码,乐嘿源码,8a商业源码论坛,fbreader源码,在线客服系统 源码,google源码,.net网站源码,快递查询源码,源码搜藏网,dede整站源码,周易 源码,52源码论坛,财经网站源码,织梦下载站源码,qq钓鱼网站源码,flash游戏源码,房产网源码,源码搜搜,电子商务源码,团购网站源码,团购网源码,jsp源码下载,jsp源码,h站源码,8a源码,婚纱摄影网站源码,易语言盗号源码,x站源码,qq空间psd源码,免费商业源码,笑话网站源码,源码集合,源码家园,啊哦源码,星期六源码,源码熊,阿奇源码,百分百源码网,一手日源码资源,旅行网站源码,b站工程源码泄露,新站长源码,8a商业源码,asp论坛源码,flash源码下载,404源码社区,创业网站源码,php网页源码,易支付源码,成品网站w灬源码,免费CMS成品网站源码,成品网站W灬源码1688仙踪林,成品APP短视频源码下载网站,成品网站源码1688可靠吗,免费B2B网站源码,成品APP直播源码下载,国外儿童网站源码在线,成品网站W灬源码1688,源码,成品网站w灬 源码1688,免费源码网站都有哪些,成品网站源码78W78隐藏通道1,网站源码,源码网,源码网站,源码时代,源码之家,源码下载,php源码,易语言源码,源码论坛,源码是什么,商城源码,论坛源码,源码交易,源码站,源码库,免费源码,免费网站ja**源码大全,ja**源码,成品网站w灬源码1377,a5源码,站长源码,成品网站源码78W78隐藏通道1APP,源码分享,网站源码下载,源码中国,asp源码,源码社区,企业网站源码,php源码下载,成品app直播源码搭建,在线观看视频网站源码2021,旅游网站源码,安卓源码,通达信选股公式源码,神马影院php源码,c#源码,成品网站w灬源码1688网页,php 源码,网页游戏源码,android源码下载,源码吧,视频源码大全,成品短视频APP源码搭建,asp源码下载,私服源码,电脑维修源码,个人主页源码,源码出售,php网站源码,刀客源码,网址导航源码,导航网站源码,源码天空,asp 源码,软件源码,精品源码,成品网站源码1688自动跳转,个人网站源码,源码哥,在线考试系统源码,cms源码,c# 源码,商业源码,vb源码,门户网站源码,音乐网站源码,中国源码,安卓源码下载,asp网站源码,在线客服源码,电影网站源码,免费源码下载,整站源码,源码交易网,易语言源码网,.net源码,在线客服系统源码,淘客源码,卡盟源码,网站源码出售,vb源码下载,莎莎源码,熊猫烧香源码,asp.net源码,商业源码网,外贸网站源码,61源码网,zblog模板,zblog企业模板,帝国cms模板,帝国cms插件,discuz模板