首页 > 编程语言 > 详细

python爬虫入门---获取某一网站所有超链接

时间:2019-02-07 20:09:35      阅读:561      评论:0      收藏:0      [点我收藏+]

需要先安装requests库和bs4库

import requests
from bs4 import BeautifulSoup

def getHTMLText(url):
    try:
        #获取服务器的响应内容,并设置最大请求时间为6秒
        res = requests.get(url, timeout = 6)
        #判断返回状态码是否为200
        res.raise_for_status()
        #设置真正的编码
        res.encoding = res.apparent_encoding
        #返回网页HTML代码
        return res.text
    except:
        return 产生异常

#目标网页
url = https://www.cnblogs.com/huwt/

demo = getHTMLText(url)

#解析HTML代码
soup = BeautifulSoup(demo, html.parser)

#模糊搜索HTML代码的所有<a>标签
a_labels = soup.find_all(a)

#获取所有<a>标签中的href对应的值,即超链接
for a in a_labels:
    print(a.get(href))

 

python爬虫入门---获取某一网站所有超链接

原文:https://www.cnblogs.com/huwt/p/10355405.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!