这篇文章将为大家详细讲解有关做python数据爬虫怎么爬取数据,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。
创新互联公司专注于企业全网营销推广、网站重做改版、分宜网站定制设计、自适应品牌网站建设、H5高端网站建设、商城系统网站开发、集团公司官网建设、外贸网站制作、高端网站制作、响应式网页设计等建站业务,价格优惠性价比高,为分宜等各大城市提供网站开发制作服务。爬虫简介:
爬虫就是自动获取网页内容的程序,例如搜索引擎,Google,Baidu 等,每天都运行着庞大的爬虫系统,从全世界的网站中爬虫数据,供用户检索时使用。
爬虫流程:
1、模拟请求网页。模拟浏览器,打开目标网站。
2、获取数据。打开网站之后,就可以自动化的获取我们所需要的网站数据。
3、保存数据。拿到数据之后,需要持久化到本地文件或者数据库等存储设备中。
数据爬虫——Requests 使用
Requests 库是 Python 中发起 HTTP 请求的库,使用非常方便简单。
模拟发送 HTTP 请求
发送 GET 请求(当我们用浏览器打开豆瓣首页时,其实发送的最原始的请求就是 GET 请求)
import requests res = requests.get('http://www.douban.com') print(res) print(type(res)) >>>
可以看到,我们得到的是一个 Response 对象。
如果我们要获取网站返回的数据,可以使用 text 或者 content 属性来获取
text:是以字符串的形式返回数据
content:是以二进制的方式返回数据
print(type(res.text)) print(res.text) >>>..... 发送 POST 请求(对于 POST 请求,一般就是提交一个表单) r = requests.post('http://www.xxxx.com', data={"key": "value"})
header 增强
对于有些网站,会拒绝掉没有携带 header 的请求的,所以需要做一些 header 增强。比如:UA,Cookie,host 等等信息。
header = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/76.0.3809.100 Safari/537.36", "Cookie": "your cookie"} res = requests.get('http://www.xxx.com', headers=header)
解析 HTML
现在我们已经获取到了网页返回的数据,即 HTML 代码,下面就需要解析 HTML,来提取其中有效的信息。BeautifulSoup 是 Python 的一个库,最主要的功能是从网页解析数据。
from bs4 import BeautifulSoup # 导入 BeautifulSoup 的方法 # 可以传入一段字符串,或者传入一个文件句柄。一般都会先用 requests 库获取网页内容,然后使用 soup 解析。 soup = BeautifulSoup(html_doc,'html.parser') # 这里一定要指定解析器,可以使用默认的 html,也可以使用 lxml。 print(soup.prettify()) # 按照标准的缩进格式输出获取的 soup 内容。
XPath 定位
XPath 是 XML 的路径语言,是通过元素和属性进行导航定位的。几种常用的表达式
表达式含义node选择 node 节点的所有子节点/从根节点选取//选取所有当前节点.当前节点..父节点@属性选取text()当前路径下的文本内容,一些简单的例子:
xpath('node') # 选取 node 节点的所有子节点 xpath('/div') # 从根节点上选取 div 元素 xpath('//div') # 选取所有 div 元素 xpath('./div') # 选取当前节点下的 div 元素 xpath('//@id') # 选取所有 id 属性的节点
关于做python数据爬虫怎么爬取数据就分享到这里了,希望以上内容可以对大家有一定的帮助,可以学到更多知识。如果觉得文章不错,可以把它分享出去让更多的人看到。