首页 > 其他 > 详细

requests

时间:2020-03-23 10:20:36      阅读:54      评论:0      收藏:0      [点我收藏+]

requests: 发送HTTP请求,接收响应

1. 如果浏览器能访问,requests不能访问,最坏是把浏览器请求头部,都写到requests请求头部中

import requests
from bs4 import BeautifulSoup

r1 = requests.get(
url=‘https://dig.chouti.com/‘,
headers={ # 注意,如果浏览器能访问,requests不能访问,最坏是把浏览器请求头部,都写到次处
‘user-agent‘:‘Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36‘ # 伪装成Chrome浏览器访问
}
)

soup = BeautifulSoup(r1.text,‘html.parser‘)

# 标签对象
content_list = soup.find(name=‘div‘,id=‘content-list‘)
# print(content_list)
# [标签对象,标签对象]
item_list = content_list.find_all(name=‘div‘,attrs={‘class‘:‘item‘})
for item in item_list:
a = item.find(name=‘a‘,attrs={‘class‘:‘show-content color-chag‘})
print(a.text.strip())
# print(a.text)

  

2. Referer(根据目标网页检查来源网页,防止盗链)
在HTTP协议中,有一个表头字段叫referer,采用URL的格式来表示从哪儿链接到当前的网页或文件。换句话说,通过referer,网站可以检测目标网页访问的来源网页,如果是资源文件,
则可以跟踪到显示它的网页地址。有了referer跟踪来源就好办了,这时就可以通过技术手段来进行处理,一旦检测到来源不是本站即进行阻止或者返回指定的页面

import re
import requests

r1 = requests.get(
url=‘https://passport.lagou.com/login/login.html‘,
headers={
‘User-Agent‘: ‘Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36‘,
}
)
X_Anti_Forge_Token = re.findall("X_Anti_Forge_Token = ‘(.*?)‘", r1.text, re.S)[0]
X_Anti_Forge_Code = re.findall("X_Anti_Forge_Code = ‘(.*?)‘", r1.text, re.S)[0]
# print(X_Anti_Forge_Token, X_Anti_Forge_Code)
# print(r1.text)
#
r2 = requests.post(
url=‘https://passport.lagou.com/login/login.json‘,
headers={
‘User-Agent‘: ‘Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36‘,
‘X-Anit-Forge-Code‘:X_Anti_Forge_Code,
‘X-Anit-Forge-Token‘:X_Anti_Forge_Token,
‘Referer‘: ‘https://passport.lagou.com/login/login.html‘, # 上一次请求地址是什么?
},
data={
"isValidate": True,
‘username‘: ‘15131255089‘,
‘password‘: ‘ab18d270d7126ea65915c50288c22c0d‘,
‘request_form_verifyCode‘: ‘‘,
‘submit‘: ‘‘
},
cookies=r1.cookies.get_dict()
)
print(r2.text)

3. requests 参数

url
headers
data
cookies
json
params
proxies
timeout

 

requests

原文:https://www.cnblogs.com/hbfengjun/p/12550318.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!