首页 > 其他 > 详细

三个爬虫的小栗子

时间:2019-11-19 18:48:16      阅读:61      评论:0      收藏:0      [点我收藏+]

三个爬虫的小栗子

第一个例子 —— 京东商品的爬取案例

import requests


def getHTMLtext(url):
    try:
        r = requests.request(get ,url )
        r.raise_for_status()
        r.encoding = r.apparent_encoding
        return r.text
    except:
        return "出现异常"
url = "https://item.jd.com/100005477055.html"
print(getHTMLtext(url))

结果如下:

技术分享图片

 

 第二个例子 —— 亚马逊爬虫案例

import requests

url = https://www.amazon.cn/dp/B00RY59GJ0?ref_=Oct_DLandingSV2_PC_e9324a46_0&smid=A2EDK7H33M5FFG

r = requests.request(get,url)

print(r.status_code)

header = {user-agent: Mozilla/5.0}

r = requests.request(get,url,headers = header)

print(r.headers)

print(r.status_code)

print(r.text)

亚马逊的官网是反爬虫的,因此我们要将user-agent更换

技术分享图片

 

 

 第三个例子 —— 百度的post案例

 首先我们要处理百度的url每次搜索百度后百度的链接就会发生变化

假如我们搜索wd https://www.baidu.com/s?wd=wd 百度的链接就会变成这样,因此我们知道百度的链接的关键词是?wd=

那么我们就可以做以下的操作

import requests

def getHTMLtext(url):
    kd = {wd: wd}
    r = requests.request(get, url, params = kd )
    try:
        r.raise_for_status()
        return r.text
    except:
        return "处理异常"

url = "http://www.baidu.com/s?"


print(getHTMLtext(url))

技术分享图片

 

 观察结果,显然我们已经实现了百度的爬取,如果想要查找其他的关键词的话,只需要改变wd=之后的关键词就行了。

三个爬虫的小栗子

原文:https://www.cnblogs.com/Nlifea/p/11891080.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!