Python 下载大文件,哪种方式速度更快!

Python 下载大文件,哪种方式速度更快!

通常,我们都会用 requests 库去下载,这个库用起来太方便了。

方法一

使用以下流式代码,无论下载文件的大小如何,Python 内存占用都不会增加:

def download_file(url):local_filename = url.split('/')[-1]# 注意传入参数 stream=Truewith requests.get(url, stream=True) as r:r.raise_for_status()with open(local_filename, 'wb') as f:for chunk in r.iter_content(chunk_size=8192): f.write(chunk)return local_filename

登录后复制

如果你有对 chunk 编码的需求,那就不该传入 chunk_size 参数,且应该有 if 判断。

def download_file(url):local_filename = url.split('/')[-1]# 注意传入参数 stream=Truewith requests.get(url, stream=True) as r:r.raise_for_status()with open(local_filename, 'w') as f:for chunk in r.iter_content(): if chunk:f.write(chunk.decode("utf-8"))return local_filename

登录后复制

iter_content[1] 函数本身也可以解码,只需要传入参数 decode_unicode = True 即可。另外,搜索公众号顶级Python后台回复“进阶”,获取一份惊喜礼包。

请注意,使用 iter_content 返回的字节数并不完全是 chunk_size,它是一个通常更大的随机数,并且预计在每次迭代中都会有所不同。

方法二

使用 Response.raw[2] 和 shutil.copyfileobj[3]

import requestsimport shutildef download_file(url):local_filename = url.split('/')[-1]with requests.get(url, stream=True) as r:with open(local_filename, 'wb') as f:shutil.copyfileobj(r.raw, f)return local_filename

登录后复制

这将文件流式传输到磁盘而不使用过多的内存,并且代码更简单。

注意:根据文档,Response.raw 不会解码,因此如果需要可以手动替换 r.raw.read 方法

response.raw.read = functools.partial(response.raw.read, decode_content=True)

登录后复制

速度

方法二更快。方法一如果 2-3 MB/s 的话,方法二可以达到近 40 MB/s。

参考资料

[1]iter_content: https://requests.readthedocs.io/en/latest/api/#requests.Response.iter_content

[2]Response.raw: https://requests.readthedocs.io/en/latest/api/#requests.Response.raw

[3]shutil.copyfileobj: https://docs.python.org/3/library/shutil.html#shutil.copyfileobj

以上就是Python 下载大文件,哪种方式速度更快!的详细内容,更多请关注【创想鸟】其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至253000106@qq.com举报,一经查实,本站将立刻删除。

发布者:PHP中文网,转转请注明出处:https://www.chuangxiangniao.com/p/2240554.html

(0)
上一篇 2025年2月26日 20:22:21
下一篇 2025年2月26日 20:22:44

AD推荐 黄金广告位招租... 更多推荐

相关推荐

发表回复

登录后才能评论