请求网站并提取数据的自动化程序
通过HTTP库向目标站点发起请求,即发起一个Request,请求可以包含额外的headers等信息,等待服务器响应;
如果服务器能正常响应,会得到一个Response,Response的内容便是所要获取的页面内容,类型可能有HTML, Json字符串,二进制数据(如图片视频)等类型;
得到的内容可能是HTML,可以用正则表达式、网页解析库进行解析;可能是Json,可以直接转为Json对象解析;可能是二进制数据,可以做保存或者进一步的处理。
保存形式多样,可以存为文本,也可以保存至数据库,或者保存特定格式的文件。
主要有GET、POST两种类型,另外还有HEAD、PUT、DELETE、OPTIONS等
URL全程:统一资源定位符,如一个网页文档、一张图片、一个视频都可以用URL唯一确定
包含请求时的头部信息,如User-Agent、Host、Cookies等信息;
包含一些比较重要的配置信息
请求时额外携带的数据,如表单提交时的表单数据
有多种相应状态,如200代表成功、301跳转、404找不到页面、502服务器错误
如内容类型、内容长度、服务器信息、设置cookie等等
最主要的部分,包含了请求资源的内容,如网页HTML、图片二进制数据等
通过request请求,得到response,判断相应状态,成功获取响应体
1 import requests
2
3 response=requests.get(‘http://www.baidu.com‘)
4 if response.status_code==200:#成功
5 re_text=response.text
6 re_head=response.headers
7 print(re_text.encode(encoding=‘utf-8‘))#响应体,这里注意编码
8 print(re_head)#响应头
如HTML文档、Json格式文本等
获取的是二进制文件,保存为图片格式
【示例】
1 #requset获取
2 import requests 3 response=requests.get(‘https://www.baidu.com/img/bd_logo1.png‘) 4 #print(response.content) 5 6 with open(‘baidu.png‘,‘wb‘)asf: 7 f.write(response.content) 8 f.close()
同为二进制文件,保存为视频格式即可
只要是能请求到的,都能获取
网页本身构成简单,返回内容简单,比如可能返回就是一个最简单的字符串,简单处理去除头尾空格即可
request只得到源代码(相当于加密过后的):包括js、jss
js、jss后续加载起来后,后台会获取数据,渲染后才会变成我们看到的网页----我们要获取的
纯文本、Json、XML
MYSQL、Ocacle、SQL Server
MongoDB、Redis等Key-Value形式存储
图片、视频、音频
原文:https://www.cnblogs.com/xiaoqiya/p/10260070.html