Python脚本:删除文件夹下的重复图片,实现图片去重


 

近期在整理相册的时候,发现相册中有许多重复图片,人工一张张筛查删除太枯燥,便写下这个脚本,用于删除文件夹下重复的图片。

 

第一部分:判断两张图片是否相同

要查找重复的图片,必然绕不开判断两张图片是否相同。判断两张图片简单呀!图片可以看成数组,比较两个数组是否相等不就行了。但是这样做太过简单粗暴,因为两个数组的每个元素都要一一比较,效率很低。为了尽量避免两个庞大的数组比较:

  • 先进行两张图片的大小(byte)比较,若大小不相同,则两张图片不相同;
  • 在两张图片的大小相同的前提下,进行两张图片的尺寸(长和宽)比较,若尺寸不相同,则两张不相同;
  • 在两张图片的尺寸相同的前提下,进行两张图片的内容(即数组元素)比较,若内容不相同,则图片不相同;

这样,当图片大小或图片尺寸不相同的时候,便认为两张图片不同,可以省去比较数组元素的部分,效率up~

 1 import shutil  2 import numpy as np  3 from PIL import Image  4 import os  5 
 6 
 7 def 比较图片大小(dir_image1, dir_image2):  8     with open(dir_image1, "rb") as f1:  9         size1 = len(f1.read()) 10     with open(dir_image2, "rb") as f2: 11         size2 = len(f2.read()) 12     if(size1 == size2): 13         result = "大小相同"
14     else: 15         result = "大小不同"
16     return result 17 
18 
19 def 比较图片尺寸(dir_image1, dir_image2): 20     image1 = Image.open(dir_image1) 21     image2 = Image.open(dir_image2) 22     if(image1.size == image2.size): 23         result = "尺寸相同"
24     else: 25         result = "尺寸不同"
26     return result 27 
28 
29 def 比较图片内容(dir_image1, dir_image2): 30     image1 = np.array(Image.open(dir_image1)) 31     image2 = np.array(Image.open(dir_image2)) 32     if(np.array_equal(image1, image2)): 33         result = "内容相同"
34     else: 35         result = "内容不同"
36     return result 37 
38 
39 def 比较两张图片是否相同(dir_image1, dir_image2): 40     # 比较两张图片是否相同
41     # 第一步:比较大小是否相同
42     # 第二步:比较长和宽是否相同
43     # 第三步:比较每个像素是否相同
44     # 如果前一步不相同,则两张图片必不相同
45     result = "两张图不同"
46     大小 = 比较图片大小(dir_image1, dir_image2) 47     if(大小 == "大小相同"): 48         尺寸 = 比较图片尺寸(dir_image1, dir_image2) 49         if(尺寸 == "尺寸相同"): 50             内容 = 比较图片内容(dir_image1, dir_image2) 51             if(内容 == "内容相同"): 52                 result = "两张图相同"
53     return result

 

第二部分:判断文件夹内是否有重复图片

若要判断文件夹内是否有和图片A相同的图片,则需要遍历文件夹内所有图片,挨个判断两个图片是否相同。若文件夹有1000张图片,那么第1张图片需要与剩下的999张图片作比较,第2张图片需要与剩下的998张图片作比较,第3张需要与剩下的997张图片作比较,以此类推。在此程序中的做法是,先对所有图片按图片大小(byte)排序,然后再执行遍历比较。这样做的结果是:重复图片很大概率会连着出现(因为重复图片大小相同)

if __name__ == '__main__': load_path = 'E:\\测试图片集(未去重)'  # 要去重的文件夹
    save_path = 'E:\\测试图片集(重复照片)'  # 空文件夹,用于存储检测到的重复的照片
    os.makedirs(save_path, exist_ok=True) # 获取图片列表 file_map,字典{文件路径filename : 文件大小image_size}
    file_map = {} image_size = 0 # 遍历filePath下的文件、文件夹(包括子目录)
    for parent, dirnames, filenames in os.walk(load_path): # for dirname in dirnames:
        # print('parent is %s, dirname is %s' % (parent, dirname))
        for filename in filenames: # print('parent is %s, filename is %s' % (parent, filename))
            # print('the full name of the file is %s' % os.path.join(parent, filename))
            image_size = os.path.getsize(os.path.join(parent, filename)) file_map.setdefault(os.path.join(parent, filename), image_size) # 获取的图片列表按 文件大小image_size 排序
    file_map = sorted(file_map.items(), key=lambda d: d[1], reverse=False) file_list = [] for filename, image_size in file_map: file_list.append(filename) # 取出重复的图片
    file_repeat = [] for currIndex, filename in enumerate(file_list): dir_image1 = file_list[currIndex] dir_image2 = file_list[currIndex + 1] result = 比较两张图片是否相同(dir_image1, dir_image2) if(result == "两张图相同"): file_repeat.append(file_list[currIndex + 1]) print("\n相同的图片:", file_list[currIndex], file_list[currIndex + 1]) else: print('\n不同的图片:', file_list[currIndex], file_list[currIndex + 1]) currIndex += 1
        if currIndex >= len(file_list)-1: break

    # 将重复的图片移动到新的文件夹,实现对原文件夹降重
    for image in file_repeat: shutil.move(image, save_path) print("正在移除重复照片:", image)

 

第三部分:程序运行结果

若文件夹下有10张图片A、5张图片B、1张图片C,程序运行结束后,该文件夹下剩余1张图片A、1张图片B、1张图片C;其他的图片移动到 save_path 指定的文件夹下。

 

第四部分:注意

程序代码可以直接复制使用,需要修改 load_path 和 save_path 参数;

保证 load_path 文件夹都为图片格式(.jpg .png .jpeg)的文件类型,不可以有其他格式的文件(例如.mp4);请先用资源管理器处理文件夹,大佬直接修改代码读取文件夹下指定类型的文件;

 


免责声明!

本站转载的文章为个人学习借鉴使用,本站对版权不负任何法律责任。如果侵犯了您的隐私权益,请联系本站邮箱yoyou2525@163.com删除。



 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM