golang中怎么抓取网页并分析页面包含的链接,相信很多没有经验的人对此束手无策,为此本文总结了问题出现的原因和解决方法,通过这篇文章希望你能解决这个问题。
创新互联公司长期为成百上千家客户提供的网站建设服务,团队从业经验10年,关注不同地域、不同群体,并针对不同对象提供差异化的产品和服务;打造开放共赢平台,与合作伙伴共同营造健康的互联网生态环境。为景县企业提供专业的做网站、成都网站设计,景县网站改版等技术服务。拥有10余年丰富建站经验和众多成功案例,为您定制开发。
1. 下载非标准的包,"golang.org/x/net/html"
2. 先安装git,使用git命令下载
git clone https://github.com/golang/net
3. 将net包,放到GOROOT路径下
比如:
我的是:GOROOT = E:\go\
所以最终目录是:E:\go\src\golang.org\x\net
注意:如果没有golang.org和x文件夹,就创建
4. 创建fetch目录,在其下创建main.go文件,main.go文件代码内容如下:
package main import ( "os" "net/http" "fmt" "io/ioutil" ) func main() { for _, url := range os.Args[1:] { resp, err := http.Get(url) if err != nil { fmt.Fprintf(os.Stderr, "fetch: %v\n", err) } b, err := ioutil.ReadAll(resp.Body) resp.Body.Close() if err != nil { fmt.Fprintf(os.Stderr, "fetch: reading %s: %v\n", url, err) os.Exit(1) } fmt.Printf("%s",b) } }
5. 编译fetch
go build test.com\justin\demo\fetch
注意:test.com\justin\demo\ 是我的项目路径,具体编译根据自己项目路径编译。
6. 执行fetch.exe 文件
fetch.exe https://www.qq.com
注意:https://www.qq.com是要爬的网址,配置正确的话,会打印出网址的HTML内容。如果没有,请检查以上步骤是否正确。
7. 网页已经抓取了,那么剩下就分析页面包含的链接了,创建findlinks目录,在其下创建main.go文件,main.go文件代码内容如下:
package main import ( "os" "fmt" "golang.org/x/net/html" ) func main() { doc, err := html.Parse(os.Stdin) if err != nil { fmt.Fprint(os.Stderr, "findlinks: %v\n", err) os.Exit(1) } for _, link := range visit(nil, doc) { fmt.Println(link) } } func visit(links []string, n *html.Node) []string { if n.Type == html.ElementNode && n.Data == "a" { for _, a := range n.Attr { if a.Key == "href" { links = append(links, a.Val) } } } for c := n.FirstChild; c != nil; c = c.NextSibling { links = visit(links, c) } return links }
8. 编译findlinks
go build test.com\justin\demo\findlinks
注意:test.com\justin\demo\ 是我的项目路径,具体编译根据自己项目路径编译。
9. 执行findlinks.exe 文件
fetch.exe https://www.qq.com | findlinks.exe
> 10. 执行后结果:获取到各种不同形式的超链接
看完上述内容,你们掌握golang中怎么抓取网页并分析页面包含的链接的方法了吗?如果还想学到更多技能或想了解更多相关内容,欢迎关注创新互联行业资讯频道,感谢各位的阅读!