首页 > 编程语言 > 详细

python爬虫学习笔记(二)——基础篇之爬虫基本原理

时间:2019-01-12 17:18:58      阅读:37      评论:0      收藏:0      [点我收藏+]

标签:包括   for   .py   非关系型   原理   sof   301跳转   close   bsp   

1.什么是爬虫?

  请求网站并提取数据的自动化程序

2.爬虫基本流程

 2.1发起请求

  通过HTTP库向目标站点发起请求,即发起一个Request,请求可以包含额外的headers等信息,等待服务器响应;

 2.2获取响应内容

  如果服务器能正常响应,会得到一个Response,Response的内容便是所要获取的页面内容,类型可能有HTML,     Json字符串,二进制数据(如图片视频)等类型;

 2.3解析内容

  得到的内容可能是HTML,可以用正则表达式、网页解析库进行解析;可能是Json,可以直接转为Json对象解析;可能是二进制数据,可以做保存或者进一步的处理。

 2.4保存数据

  保存形式多样,可以存为文本,也可以保存至数据库,或者保存特定格式的文件。

3.什么是Request和Response?

  技术分享图片

  • 浏 览 器 发 送 消 息 给 该 网 址 所 在 的 服 务 器 , 这 个 过 程 叫 做 HTTP Request;
  • 服 务 器 收 到 浏 览 器 发 送 的 消 息 后 , 能 够 根 据 浏 览 器 发 送 消 息 的 内 容 , 做 相 应 处 理 , 然 后 把 消 息 回 传 给 浏 览 器 。 这 个 过 程 叫 做 HTTP Response;
  • 浏 览 器 收 到 服 务 器 的 Response 信 息 后 , 会 对 信 息 进 行 相 应 处 理 , 然后 展 示 。

 3.1request中包含什么?

  3.1.1请求方式

  主要有GET、POST两种类型,另外还有HEAD、PUT、DELETE、OPTIONS等

  •   GET:请求的参数已经包含在请求的网址上,网页网址栏,url后的一长串信息就是GET的参数;可以直接输入URL回车访问
  •   POST:请求的信息在FORM DATA中;构造表单信息,提交后请求(如登陆)

  3.1.2请求URL

   URL全程:统一资源定位符,如一个网页文档、一张图片、一个视频都可以用URL唯一确定

  3.1.3请求头

   包含请求时的头部信息,如User-Agent、Host、Cookies等信息;

   包含一些比较重要的配置信息

  3.1.4请求体

   请求时额外携带的数据,如表单提交时的表单数据

 3.2.Response

  3.2.1响应状态

   有多种相应状态,如200代表成功、301跳转、404找不到页面、502服务器错误

  3.2.2响应头

   如内容类型、内容长度、服务器信息、设置cookie等等

  3.2.3响应体

   最主要的部分,包含了请求资源的内容,如网页HTML、图片二进制数据等

 3.3程序演示

   通过request请求,得到response,判断相应状态,成功获取响应体 

1 import requests
2  
3 response=requests.get(http://www.baidu.com)
4 if response.status_code==200:#成功
5     re_text=response.text
6     re_head=response.headers
7     print(re_text.encode(encoding=utf-8))#响应体,这里注意编码
8     print(re_head)#响应头

 

4.可以抓怎样的数据?

 网页文本

   如HTML文档、Json格式文本等

 图片

   获取的是二进制文件,保存为图片格式

  【示例】

1 #requset获取
2 import requests 3 response=requests.get(https://www.baidu.com/img/bd_logo1.png) 4 #print(response.content) 5 6 with open(baidu.png,wb)asf: 7 f.write(response.content) 8 f.close()

 

 视频

   同为二进制文件,保存为视频格式即可

 其他

   只要是能请求到的,都能获取

5.怎样来解析

  •   直接处理

      网页本身构成简单,返回内容简单,比如可能返回就是一个最简单的字符串,简单处理去除头尾空格即可

  •   Json解析

  •   正则表达式

  •   BeautifulSoup库解析

  •   PyQuery库解析

  •   XPath库解析

6.为什么抓取数据与获得数据不同?

  request只得到源代码(相当于加密过后的):包括js、jss

    js、jss后续加载起来后,后台会获取数据,渲染后才会变成我们看到的网页----我们要获取的

7.怎样解决JavaScript渲染的问题?

  •   分析Ajax请求;

  •   Selenium/webdriver;

  •   Splash;                           ----------后三个模拟加载JS

  •   PyV8、Ghost.py

8.怎样保存数据?

  文本

    纯文本、Json、XML

  关系型数据库

    MYSQL、Ocacle、SQL Server

  非关系型数据库

    MongoDB、Redis等Key-Value形式存储

  二进制文件

    图片、视频、音频

 

python爬虫学习笔记(二)——基础篇之爬虫基本原理

标签:包括   for   .py   非关系型   原理   sof   301跳转   close   bsp   

原文:https://www.cnblogs.com/xiaoqiya/p/10260070.html

(0)
(0)
   
举报
评论 一句话评论(0
0条  
登录后才能评论!
© 2014 bubuko.com 版权所有 鲁ICP备09046678号-4
打开技术之扣,分享程序人生!
             

鲁公网安备 37021202000002号