首页 > 编程语言 > 详细

Python获取网页指定内容(BeautifulSoup工具的使用方法)

时间:2019-11-15 22:54:54      阅读:141      评论:0      收藏:0      [点我收藏+]

page = urllib2.urlopen(url)  
contents = page.read()  
#获得了整个网页的内容也就是源代码 
print(contents) 

 

 

 

url代表网址,contents代表网址所对应的源代码,urllib2是需要用到的包,以上三句代码就能获得网页的整个源代码

 

2 获取网页中想要的内容(先要获得网页源代码,再分析网页源代码,找所对应的标签,然后提取出标签中的内容)

 

2.1 以豆瓣电影排名为例子

 

网址是http://movie.douban.com/top250?format=text,进入网址后就出现如下的图

 

 

 

技术分享图片

 

 

 

然后查看源码,找到对应的内容:(直接按f12)

就得到下面这张图:

然后划出重点

 

技术分享图片

 

 

 

然后开始编写代码:

#coding:utf-8 
‘‘‘‘‘
@author: jsjxy
‘‘‘ 
import urllib2  
import re  
from bs4 import BeautifulSoup 
from distutils.filelist import findall 
 
 
 
page = urllib2.urlopen(‘http://movie.douban.com/top250?format=text‘)  
contents = page.read()  
#print(contents) 
soup = BeautifulSoup(contents,"html.parser") 
print("豆瓣电影TOP250" + "\n" +" 影片名              评分       评价人数     链接 ")   
for tag in soup.find_all(‘div‘, class_=‘info‘):    //按照标签的类名循环找
   # print tag 
    m_name = tag.find(‘span‘, class_=‘title‘).get_text()     //找到名字     
    m_rating_score = float(tag.find(‘span‘,class_=‘rating_num‘).get_text())        //找到评分  
    m_people = tag.find(‘div‘,class_="star")    //先找到这个div
    m_span = m_people.findAll(‘span‘) 
    m_peoplecount = m_span[3].contents[0]  //在列表中找到人数
    m_url=tag.find(‘a‘).get(‘href‘) 
    print( m_name+"        "  +  str(m_rating_score)   + "           " + m_peoplecount + "    " + m_url )  

结果:

 

 

技术分享图片

Python获取网页指定内容(BeautifulSoup工具的使用方法)

原文:https://www.cnblogs.com/1208xu/p/11869914.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!