首页 > 其他 > 详细

爬取百度数据

时间:2020-03-22 00:55:29      阅读:98      评论:0      收藏:0      [点我收藏+]

import requests
from bs4 import BeautifulSoup
import bs4
import pandas as pd
titles=[]
h=[]
url=‘http://top.baidu.com/buzz?b=341&c=513&fr=topbuzz_b1_c513‘ #选择要爬取的网站
headers = {‘User-Agent‘:‘Mozilla/5.0 (Windows NT 6.3; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko)Chrome/69.0.3497.100 Safari/537.36‘}#伪装爬虫
r=requests.get(url)#构造一个向服务器请求资源的url对象
r.raise_for_status()#检查请求是否成功
r.encoding = r.apparent_encoding#分析后得到可能性最大的编码
html = r.text
table = BeautifulSoup(html,"html.parser").find("table") #对获得的文本进行html解析,查找<table>内的信息
soup=BeautifulSoup(html,‘lxml‘)
for m in soup.find_all(class_="keyword"):
titles.append(m.get_text().strip())
for n in soup.find_all(class_="icon-rise"):
h.append(n.get_text().strip())
final=[titles,h]
pd.DataFrame(final,index=["标题","热度"]) #数据可视化

 

爬取百度数据

原文:https://www.cnblogs.com/M200/p/12543391.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!