站长网_站长创业_站长主页_站长之家_易采站长站

会员投稿 投稿指南 站长资讯通告: go 下载非标准库包(部份包被墙了)到本地使用的方
搜索:
您的位置: 主页 > 教程 > 脚本教程 > 其他脚本 > » 正文

golang抓取网页并分析页面包含的链接方法

来源: 易采站长站

1. 下载非标准的包,"golang.org/x/net/html"

2. 先安装git,使用git命令下载

git clone https://github.com/golang/net

3. 将net包,放到GOROOT路径下

比如:

我的是:GOROOT = E:\go\

所以最终目录是:E:\go\src\golang.org\x\net

注意:如果没有golang.org和x文件夹,就创建

4. 创建fetch目录,在其下创建main.go文件,main.go文件代码内容如下:

package main
 
import (
 "os"
 "net/http"
 "fmt"
 "io/ioutil"
)
 
func main() {
 for _, url := range os.Args[1:] {
 resp, err := http.Get(url)
 if err != nil {
  fmt.Fprintf(os.Stderr, "fetch: %v\n", err)
 }
 b, err := ioutil.ReadAll(resp.Body)
 resp.Body.Close()
 if err != nil {
  fmt.Fprintf(os.Stderr, "fetch: reading %s: %v\n", url, err)
  os.Exit(1)
 }
 fmt.Printf("%s",b)
 }
}

5. 编译fetch

go build test.com\justin\demo\fetch

注意:test.com\justin\demo\ 是我的项目路径,具体编译根据自己项目路径编译。

6. 执行fetch.exe 文件

fetch.exe https://www.qq.com

注意:https://www.qq.com是要爬的网址,配置正确的话,会打印出网址的HTML内容。如果没有,请检查以上步骤是否正确。

7. 网页已经抓取了,那么剩下就分析页面包含的链接了,创建findlinks目录,在其下创建main.go文件,main.go文件代码内容如下:

package main
 
import (
 "os"
 "fmt"
 "golang.org/x/net/html"
)
 
func main() {
 doc, err := html.Parse(os.Stdin)
 if err != nil {
 fmt.Fprint(os.Stderr, "findlinks: %v\n", err)
 os.Exit(1)
 }
 for _, link := range visit(nil, doc) {
 fmt.Println(link)
 }
}
 
func visit(links []string, n *html.Node) []string {
 if n.Type == html.ElementNode && n.Data == "a" {
 for _, a := range n.Attr {
  if a.Key == "href" {
  links = append(links, a.Val)
  }
 }
 }
 for c := n.FirstChild; c != nil; c = c.NextSibling {
 links = visit(links, c)
 }
 return links
}

8. 编译findlinks

go build test.com\justin\demo\findlinks

注意:test.com\justin\demo\ 是我的项目路径,具体编译根据自己项目路径编译。

9. 执行findlinks.exe 文件

fetch.exe https://www.qq.com | findlinks.exe

> 10. 执行后结果:获取到各种不同形式的超链接

以上这篇golang抓取网页并分析页面包含的链接方法就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持易采站长站。

最新图文资讯
1 2 3 4 5 6
相关文章列表:
最新文章
易采站长站 - 联系我们 - 广告服务 - 友情链接 - 网站地图 - 版权声明 - 人才招聘 - 帮助 -