您的位置 首页 > 数码极客

如何将爬出来的多张图片

如果你仔细观察,就不难发现,懂爬虫、学习爬虫的人越来越多,一方面,互联网可以获取的数据越来越多,另一方面,像 Python这样的编程语言提供越来越多的优秀工具,让爬虫变得简单、容易上手。

对于小白来说,爬虫可能是一件非常复杂,技术门槛很高的事情,其实只要掌握正确方法,在短时间内也是能够做到精通的!这里给你一条平滑的,零基础快速入门的学习路径。

先来带你简单的爬取一下网络图片:

1. 概述

本文主要实现一个简单的爬虫,目的是从一个百度贴吧页面下载图片。下载图片的步骤如下:

(1)获取网页html文本内容;

(2)分析html中图片的html标签特征,用正则解析出所有的图片url链接列表;

(3)根据图片的url链接列表将图片下载到本地文件夹中。

如果你是零基础小白,看不懂,没关系!完整项目代码+视频使用教程+Python编程学习资料都给你带走,有了这些 不怕你学不会! 不收取任何费用哦

2. urllib+re实现


#!/usr/bin/python # coding:utf-8 # 实现一个简单的爬虫,爬取百度贴吧图片 import urllib import re # 根据url获取网页html内容 def getHtmlContent(url): page = urllib.urlopen(url) return () # 从html中解析出所有jpg图片的url # 百度贴吧html中jpg图片的url格式为:<img ... src="XXX.jpg" width=...> def getJPGs(html): # 解析jpg图片url的正则 jpgReg = re.compile(r'<img.+?src="(.+?\.jpg)" width') # 注:这里最后加一个'width'是为了提高匹配精确度 # 解析出jpg的url列表 jpgs = re.findall(jpgReg,html) return jpgs # 用图片url下载图片并保存成制定文件名 defdownloadJPG(imgUrl,fileName): urllib.urlretrieve(imgUrl,fileName) # 批量下载图片,默认保存到当前目录下 def batchDownloadJPGs(imgUrls,path ='./'): # 用于给图片命名 count = 1 for url in imgUrls: downloadJPG(url,''.join([path,'{0}.jpg'.format(count)])) count = count + 1 # 封装:从百度贴吧网页下载图片 def download(url): html = getHtmlContent(url) jpgs = getJPGs(html) batchDownloadJPGs(jpgs) def main(): url = '; download(url) if __name__ == '__main__': main()

运行上面脚本,过几秒种之后完成下载,可以在当前目录下看到图片已经下载好了:


3. requests + re实现

下面用requests库实现下载,把getHtmlContent和downloadJPG函数都用requests重新实现。


#!/usr/bin/python # coding:utf-8 # 实现一个简单的爬虫,爬取百度贴吧图片 import requests import re # 根据url获取网页html内容 def getHtmlContent(url): page = reque(url): return # 从html中解析出所有jpg图片的url # 百度贴吧html中jpg图片的url格式为:<img ... src="XXX.jpg" width=...> def getJPGs(html): # 解析jpg图片url的正则 jpgReg = re.compile(r'<img.+?src="(.+?\.jpg)" width') # 注:这里最后加一个'width'是为了提高匹配精确度 # 解析出jpg的url列表 jpgs = re.findall(jpgReg,html) return jpgs # 用图片url下载图片并保存成制定文件名 def downloadJPG(imgUrl,fileName): # 可自动关闭请求和响应的模块 from contextlib import closing with closing(reque(imgUrl,stream = True)) as resp: with open(fileName,'wb') as f: for chunk in re(128): f.write(chunk) # 批量下载图片,默认保存到当前目录下 defbatchDownloadJPGs(imgUrls,path ='./'): # 用于给图片命名 count = 1 for url in imgUrls: downloadJPG(url,''.join([path,'{0}.jpg'.format(count)])) print '下载完成第{0}张图片'.format(count) count = count + 1 # 封装:从百度贴吧网页下载图片 def download(url): html = getHtmlContent(url) jpgs = getJPGs(html) batchDownloadJPGs(jpgs) def main(): url = '; download(url) if __name__ == '__main__': main()

输出:和前面一样。

不知道这篇简单的python爬虫小案例有没有帮到你呢?无论你是零基础小白看不懂还是看懂了想体验高难度!小伙伴们都不用担心~

小编已经为你准备好了Python爬视频教程

请关注+私信回复小编我关键词“学习”就可以拿到这份份我为大家准备的13天学会Python爬虫分布式

十三天具体干什么?

第一天:

第二天:

第三天:

第四天:

第五天:

第六天:

第七天:

第八天:

第九天:

第十天:

第十一天:

第十二天:

第十三天:

每天三两个小时,13天轻松拿下python爬虫,你就说牛不牛!溜不溜!

小编已经把这些视频资料全部打包整理好了,如果你需要的话,请转发本文+关注并私信小编:“学习”就可以免费领取哦

责任编辑: 鲁达

1.内容基于多重复合算法人工智能语言模型创作,旨在以深度学习研究为目的传播信息知识,内容观点与本网站无关,反馈举报请
2.仅供读者参考,本网站未对该内容进行证实,对其原创性、真实性、完整性、及时性不作任何保证;
3.本站属于非营利性站点无毒无广告,请读者放心使用!

“如何将爬出来的多张图片”边界阅读