首页 > 其他 > 详细

网络爬虫问题

时间:2018-12-03 22:47:33      阅读:192      评论:0      收藏:0      [点我收藏+]
请分析作业页面,爬取已提交作业信息,并生成已提交作业名单,保存为英文逗号分隔的csv文件。文件名为:hwlist.csv 。
 
文件内容范例如下形式:
 
学号,姓名,作业标题,作业提交时间,作业URL
20194010101,张三,羊车门作业,2018-11-13 23:47:36.8,http://www.cnblogs.com/sninius/p/12345678.html
20194010102,李四,羊车门,2018-11-14 9:38:27.03,http://www.cnblogs.com/sninius/p/87654321.html
 
*注1:如制作定期爬去作业爬虫,请注意爬取频次不易太过密集;
*注2:本部分作业用到部分库如下所示:
(1)requests —— 第3方库
(2)json    —— 内置库
经过上课所讲内容,在Firefox浏览器中找到了要爬取的具体网页内容,所得网址为"https://edu.cnblogs.com/Homework/GetAnswers?homeworkId=2420&_=1543752749008"
经过分析,代码如下:
import requests
import json
url="https://edu.cnblogs.com/Homework/GetAnswers?homeworkId=2420&_=1543752749008"
r=requests.get(url)
if r.status_code==200:
    pass
else:
    print(Error)
json_data=json.loads(r.text)
result=‘‘
for item in json_data[data]:
    u=str(item[StudentNo])+,+str(item[RealName])+,+str(item[Title])+,+str(item[DateAdded].replace(T, ))+,+str(item[Url])
    result=result+u+\n
    print(u)
    with open(hwlist.csv,"w") as f:
        f.write(result)
    

结果如下:技术分享图片

 

 

网络爬虫问题

原文:https://www.cnblogs.com/Huangyixin0802/p/10061300.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!