hashlib.md5()函数是用来过滤掉系统中的重复文件并去除的。[阅读全文]主要实现思路是遍历某个文件夹包括其子文件夹下的所有文件,最后通过MD5函数的比较过滤掉所有文件,最后去除重复文件。使用的第三方库都比较常见,只有hashlib比较文件用的不是很常用。其他的就是一些辅助操作的常用第三方库。importos#应用文件操作importhashlib#文件比较操作importlogging#日志功能操作importsys#系统应用操作日志设置基本都是这套范式,按照规则设置日志打印的相关信息。logger=logging.getLogger('系统文件去重')logging.basicConfig(format='%(asctime)s%(levelname)-8s:%(message)s')logger.setLevel(logging.DEBUG)文件去重实现逻辑代码块如下:diretory=input('请输入要排序的文件目录:\n')#去重文件夹路径ifos.path.isdir(diretory):logger.info('当前目录['+diretory+']验证成功!')md5s=[]forfile_path,dir_names,file_namesinos.walk(r''+diretory):forfile_nameinfile_names:try:file_name_path=os.path.join(file_path,file_name)logger.info('当前比较路径:'+file_name_path)md5=hashlib.md5()file=open(file_name_path,"rb")md5.update(file.read())file.close()md5_value=md5.hexdigest()ifmd5_valueinmd5s:os.remove(file_name_path)logger.info('['+file_name_path+']duplicateshavebeenremoved!')else:md5s.append(md5_value)except:logger.error('['+file_name_path+']比较时出现异常,执行下一个!')else:logger.error('输入的文件夹或目录不存在!')以上是整个实现文件去重的过程中,作为一个清理电脑文件的小工具还是蛮实用的[以前的精彩]哈萨,英雄联盟全皮下载器来了...PyQt5敏感词检测工具制作,不错运营商消息...手绘图片生成器:以雪蓉蓉为例一键生成...刚刚出炉的冬奥会吉祥物:冰墩墩,附源码...最美表格视图插件-于:tabulate♂同班点名系统,PyQt5写起来很简单。。。开始干活!给PDF文件批量添加中文水印……大年初二,做了一个windows通知管理器!百度图片下载器2.0gif动态图片生成器,多张图片组合生成一张动态图片...python中几种常见的数据处理操作,一行代码即可完成!过年,用PyQt5生成一对春联...
