首页 > 其他 > 详细

一个简单的爬虫case1

时间:2018-12-01 22:56:45      阅读:193      评论:0      收藏:0      [点我收藏+]

目标是把这里的所有东西下载下来:
http://ftp.sjtu.edu.cn/archlinux/core/os/x86_64/

直接看代码吧,也没啥好说的。

import requests
from bs4 import BeautifulSoup
import os


url = ‘http://ftp.sjtu.edu.cn/archlinux/core/os/x86_64/‘
r = requests.get(url)
root = ‘./crawl‘
soup = BeautifulSoup(r.text,"html.parser")
count = 0
if not os.path.exists(root):
    os.mkdir(root)
for link in soup.find_all("a"):
    name = link.get(‘href‘)
    path = root + ‘/‘+ name
    if not os.path.exists(path):
        r = requests.get(url + name)
        with open(path, "wb") as f:
            f.write(r.content)
            f.close()
    count += 1
    print(count)
print("finished")

一个简单的爬虫case1

原文:https://www.cnblogs.com/bernieloveslife/p/10051264.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!