这篇文章将为大家详细讲解有关python爬虫怎么批量爬取百度图片,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。
成都网站设计、网站建设介绍好的网站是理念、设计和技术的结合。成都创新互联公司拥有的网站设计理念、多方位的设计风格、经验丰富的设计团队。提供PC端+手机端网站建设,用营销思维进行网站设计、采用先进技术开源代码、注重用户体验与SEO基础,将技术与创意整合到网站之中,以契合客户的方式做到创意性的视觉化效果。
Python主要应用于:1、Web开发;2、数据科学研究;3、网络爬虫;4、嵌入式应用开发;5、游戏开发;6、桌面应用开发。
当我们想要获取百度图片的时候,面对一张张图片,一次次的点击右键下载十分麻烦。python爬虫可以实现批量下载,根据我们下载网站位置、图片位置、图片下载数量、图片下载位置等需求进行批量下载。
1、导入相关库
import requests#爬虫库 import re#正则表达式库 import os#系统库 import time#时间库
2、确定百度图片链接
url='http://image.baidu.com/search/index?tn=baiduimage&fm=result&ie=utf-8&word='#百度链接
3、解码
# 解码def decode(url): for key, value in str_table.items(): url = url.replace(key, value) return url.translate(char_table)
4、百度图片下拉
def buildUrls(word): word = urllib.parse.quote(word) url = r"http://image.baidu.com/search/acjson?tn=resultjson_com&ipn=rj&ct=201326592&fp= result&queryWord={word}&cl=2&lm=-1&ie=utf-8&oe=utf-8&st=-1&ic=0&word={word}&face=0&istype=2nc=1&pn={pn}&rn=60" urls = (url.format(word=word, pn=x) for x in itertools.count(start=0, step=60)) return urls re_url = re.compile(r'"objURL":"(.*?)"')
5、使用正则表达式获取图片数量
totalnum = re.findall('(.*?)', string) print("百度图片"+totalnum[0])img_url_regex = '"thumbURL":"(.*?)",'#正则匹配式count=0#总共下载 的图片数index=0#链接后面的序号page=0#当前搜集的页while(1): strhtml=requests.get(url+str(index),headers=headers)#get方式获取数据 string=str(strhtml.text) print("已爬取网页")
6、利用正则表达式找到图片url
print("第"+str(page+1)+"页共收集到"+str(len(pic_url))+"张图片")
7、创建文件路径下载
def mkDir(dirName): dirpath = os.path.join(sys.path[0], dirName) if not os.path.exists(dirpath): os.mkdir(dirpath) return dirpathif __name__ == '__main__': with open('list.txt', 'r', encoding="utf-8") as f: result = f.read() keys = result.split('\n') key_words = list(enumerate(keys, start=1)) for key in key_words: word = key[1] dirpath = mkDir(word) imgType = 'jpg' strtag = word numIMGS = 3 urls = buildUrls(word) index = 0 #print("= = " * 25) for url in urls: print("正在请求:", url) html = requests.get(url, timeout=10).content.decode('utf-8') imgUrls = resolveImgUrl(html) # print(imgUrls) if len(imgUrls) == 0: # 没有图片则结束 break for url in imgUrls: if downImgs(url, dirpath, strtag + ' ' + str(index + 1), imgType): index += 1 # print("已下载 %s 张" % index) # 双 break 跳出下载循环 if index == numIMGS: break if index == numIMGS: # print('您一共下载了 %s 张图片' % index) # print('程序正在终止') break
关于“python爬虫怎么批量爬取百度图片”这篇文章就分享到这里了,希望以上内容可以对大家有一定的帮助,使各位可以学到更多知识,如果觉得文章不错,请把它分享出去让更多的人看到。