文件多了乱放, 突然有一天发现硬盘空间不够了, 于是写了个python脚本搜索所有大于10mb的文件,看看这些大文件有没有重复的副本,如果有,全部列出,以便手工删除
使用方式 加一个指定目录的参数
比如python redundant_remover.py /tmp
主要用到了stat模块,os、sys系统模块
import os, sys#引入统计模块from stat import *BIG_FILE_THRESHOLD = 10000000Ldict1 = {} # filesize 做 key, filename 做 valuedict2 = {} # filename 做 key, filesize 做 valuedef treewalk(path): try: for i in os.listdir(path): mode = os.stat(path+"/"+i).st_mode if S_ISDIR(mode) True: filename = path+"/"+i filesize = os.stat(filename).st_size if filesize > BIG_FILE_THRESHOLD: if filesize in dict1: dict2[filename] = filesize dict2[dict1[filesize]]=filesize else: dict1[filesize] = filename else: treewalk(path+"/"+i) except WindowsError: passdef printdict(finaldict): for i_size in finaldict.values(): print i_size for j_name in finaldict.keys(): if finaldict[j_name] == i_size: print j_name print ""if __name__=="__main__": treewalk(sys.argv[1]) printdict(dict2)
登录后复制
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至253000106@qq.com举报,一经查实,本站将立刻删除。
发布者:PHP中文网,转转请注明出处:https://www.chuangxiangniao.com/p/2296884.html