资讯

精准传达 • 有效沟通

从品牌网站建设到网络营销策划,从策略到执行的一站式服务

python爬虫中怎样编写pyspider

这篇文章给大家分享的是有关python爬虫中怎样编写pyspider的内容。小编觉得挺实用的,因此分享给大家做个参考。一起跟随小编过来看看吧。

创新互联长期为1000多家客户提供的网站建设服务,团队从业经验10年,关注不同地域、不同群体,并针对不同对象提供差异化的产品和服务;打造开放共赢平台,与合作伙伴共同营造健康的互联网生态环境。为毕节企业提供专业的网站建设、成都做网站毕节网站改版等技术服务。拥有十载丰富建站经验和众多成功案例,为您定制开发。

代码:

from pyspider.libs.base_handler import *class Handler(BaseHandler):
    crawl_config = {
    }
 
    @every(minutes=24 * 60)    def on_start(self):
        self.crawl('__START_URL__', callback=self.index_page)
 
    @config(age=10 * 24 * 60 * 60)    def index_page(self, response):        for each in response.doc('a[href^="http"]').items():
            self.crawl(each.attr.href, callback=self.detail_page)
 
    @config(priority=2)    def detail_page(self, response):        return {            "url": response.url,            "title": response.doc('title').text(),
        }

crawl_config:爬虫的全局参数设置,例如请求头和cookies可以在这里设置(传入关键字及对应的参数即可)

on_start(self):爬虫开始爬取的入口

crawl:和requests有相同的功能 ,可以支持 get(默认) 和 post,常用的参数有

data 是想要提交数据

callback 可以在执行完 crawl后调用回调函数

method 是指定 访问方法

files 上传文件,{'key': ('file.name': 'content')}

headers 请求头,类型dict

cookies 请求的 Cookies 类型 dict

timeout 请求内容里最大等待秒数.默认值:120

connect_timeout : 指定请求时链接超时时间,单位秒,默认值:20

proxy : 可以设置代理服务器,暂时只支持http代理

感谢各位的阅读!关于python爬虫中怎样编写pyspider就分享到这里了,希望以上内容可以对大家有一定的帮助,让大家可以学到更多知识。如果觉得文章不错,可以把它分享出去让更多的人看到吧!


文章标题:python爬虫中怎样编写pyspider
文章源于:http://cdkjz.cn/article/giesoo.html
多年建站经验

多一份参考,总有益处

联系快上网,免费获得专属《策划方案》及报价

咨询相关问题或预约面谈,可以通过以下方式与我们联系

大客户专线   成都:13518219792   座机:028-86922220