查看: 738|回复: 0

​python爬去网页图片—实现简单爬虫功能

[复制链接]
  • TA的每日心情
    奋斗
    2022-10-13 10:27
  • 签到天数: 216 天

    连续签到: 1 天

    [LV.7]常住居民III

    发表于 2016-4-6 08:57:43 | 显示全部楼层 |阅读模式
    分享到:
      在一些网站上经常看到一些好的图片希望批量下载保存到本地,但是一个个右击保存有显的十分麻烦,这里可以通过python 来实现这样一个简单的爬虫功能,把我们想要的代码爬取到本地,功能有点类似我们之前学过的批处理。下面就看看如何使用python来实现这样一个功能,主要分为三步,如下:
    一. 获取整个页面数据
    首先我们可以先获取要下载图片的整个页面信息。
    创建getjpg.py文件
    #coding=utf-8
    import urllib
    def getHtml(url):
    page = urllib.urlopen(url)
    html = page.read()
    return html
    html = getHtml("https://tieba.baidu.com/p/2738151262")
    print html

    说明:
      Urllib 模块提供了读取web页面数据的接口,我们可以像读取本地文件一样读取www和ftp上的数据。
    首先,我们定义了一个getHtml()函数;
    urllib.urlopen()方法用于打开一个URL地址;
    read()方法用于读取URL上的数据;
    向getHtml()函数传递一个网址,并把整个页面下载下来。执行程序就会把整个网页打印输出。
    二. 筛选页面中想要的数据

     Python 提供了非常强大的正则表达式,我们需要先要了解一点python 正则表达式的知识才行。
    re模块中一些重要的函数:

    假如我们百度贴吧找到了几张漂亮的壁纸,通过到前段查看工具。找到了图片的地址,如:src="https://imgsrc.baidu.com/forum/w%3D580/sign=750661a0fcfaaf5184e381b7bc5594ed/75fafbedab64034fc3ed0b80aec379310a551d11.jpg"

    修改代码如下:
    import re
    import urllib
    def getHtml(url):
    page = urllib.urlopen(url)
    html = page.read()
    return html
    def getImg(html):
    reg = r'src="(.+?\.jpg)" pic_ext'
    imgre = re.compile(reg)
    imglist = re.findall(imgre,html)
    return imglist
    html = getHtml("https://tieba.baidu.com/p/2460150866")
    print getImg(html)
    我们又创建了getImg()函数,用于在获取的整个页面中筛选需要的图片连接。re模块主要包含了正则表达式:
    re.compile() 可以把正则表达式编译成一个正则表达式对象.
    re.findall() 方法读取html 中包含 imgre(正则表达式)的数据。
    运行脚本将得到整个页面中包含图片的URL地址。

    三. 将页面筛选的数据保存到本地
    把筛选的图片地址通过for循环遍历并保存到本地,代码如下:
    #coding=utf-8
    import urllib
    import re
    def getHtml(url):
    page = urllib.urlopen(url)
    html = page.read()
    return html
    def getImg(html):
    reg = r'src="(.+?\.jpg)" pic_ext'
    imgre = re.compile(reg)
    imglist = re.findall(imgre,html)
    x = 0
    for imgurl in imglist:
    urllib.urlretrieve(imgurl,'c:\Users\Administrator\Desktop\pic\%s.jpg' % x)
    x+=1
    html = getHtml("https://tieba.baidu.com/p/2460150866")
    print getImg(html)
    这里的核心是用到了urllib.urlretrieve()方法,直接将远程数据下载到本地。
    通过一个for循环对获取的图片连接进行遍历,为了使图片的文件名看上去更规范,对其进行重命名,命名规则通过x变量加1。保存的位置默认为程序的存放目录。
    程序运行完成,将在目录下看到下载到本地的文件。
    效果如下:
    回复

    使用道具 举报

    您需要登录后才可以回帖 注册/登录

    本版积分规则

    手机版|小黑屋|与非网

    GMT+8, 2024-4-23 18:10 , Processed in 0.113199 second(s), 17 queries , MemCache On.

    ICP经营许可证 苏B2-20140176  苏ICP备14012660号-2   苏州灵动帧格网络科技有限公司 版权所有.

    苏公网安备 32059002001037号

    Powered by Discuz! X3.4

    Copyright © 2001-2024, Tencent Cloud.