从品牌网站建设到网络营销策划,从策略到执行的一站式服务
小编给大家分享一下Python3怎么实现爬虫爬取赶集网列表功能,希望大家阅读完这篇文章之后都有所收获,下面让我们一起去探讨吧!
创新互联成立于2013年,我们提供高端网站建设公司、成都网站制作、成都网站设计、网站定制、全网整合营销推广、小程序制作、微信公众号开发、seo优化服务,提供专业营销思路、内容策划、视觉设计、程序开发来完成项目落地,为成都搬家公司企业提供源源不断的流量和订单咨询。Python主要用来做什么Python主要应用于:1、Web开发;2、数据科学研究;3、网络爬虫;4、嵌入式应用开发;5、游戏开发;6、桌面应用开发。
具体如下:
python3爬虫之爬取赶集网列表。这几天一直在学习使用python3爬取数据,今天记录一下,代码很简单很容易上手。
首先需要安装python3。如果还没有安装,可参考本站前面关于python3安装与配置相关文章。
首先需要安装request和BeautifulSoup两个模块
request是Python的HTTP网络请求模块,使用Requests可以轻而易举的完成浏览器可有的任何操作
pip install requests
BeautifulSoup是用Python写的一个HTML/XML的解析器,它可以很好的处理不规范标记并生成剖析树
pip install beautifulsoup4
代码:
from urllib import request from bs4 import BeautifulSoup #构造头文件,模拟浏览器访问 url="http://xa.ganji.com/meirdjm/o2/" headers = {'User-Agent':'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.77 Safari/537.36'} page = request.Request(url,headers=headers) # 发送请求,获取内容 page_info = request.urlopen(page).read().decode('utf-8') # 将获取到的内容转换成BeautifulSoup格式,并将html.parser作为解析器 soup = BeautifulSoup(page_info, 'html.parser') # 查找所有a标签中class='list-info-title' titles = soup.find_all('a',class_="list-info-title") # 打印抓取到的title for title in titles: print(title.string)
结果:
看完了这篇文章,相信你对“Python3怎么实现爬虫爬取赶集网列表功能”有了一定的了解,如果想了解更多相关知识,欢迎关注创新互联行业资讯频道,感谢各位的阅读!
成都网站建设公司地址:成都市青羊区太升南路288号锦天国际A座10层 建设咨询028-86922220
成都快上网科技有限公司-四川网站建设设计公司 | 蜀ICP备19037934号 Copyright 2020,ALL Rights Reserved cdkjz.cn | 成都网站建设 | © Copyright 2020版权所有.
专家团队为您提供成都网站建设,成都网站设计,成都品牌网站设计,成都营销型网站制作等服务,成都建网站就找快上网! | 成都网站建设哪家好? | 网站建设地图