问题描述:

  任务一:对一个文件夹内相同图片进行去重操作。
  任务二:有两个文件夹存放着图片(这里称之为新数据集与旧数据集),将新数据集中与旧数据集中相同的图片去除掉,并进行保存。
  前面会对使用到的imagededup进行一些说明和介绍,可以加深理解方便使用,以后遇到去重任务可以更加轻松的进行处理,如果赶时间可以直接pip imagededup,复制下面任务代码更改路径,创建相应文件进行使用。

关于imagededup:

介绍

  imagededup提供了非常强大的功能对文件进行去重操作,可以使用CNN、PHash、DHash、WHash、以及AHash这几种方法之一对图像生成编码,然后根据编码进行比对图像是否重复。
  个人感觉与其他方法进行对比的话imagededup还是比较快捷方便的,主要要清楚它进行比对后输出的结果,才好进行后处理,拓展到更多复杂的图片去重任务上去。

环境配置:

  我使用的conda虚拟环境进行安装imagededup,使用pycharm进行运行程序。注意imagededup与Python 3.8以上版本兼容,这里使用的imagededup的版本是0.3.1,根据官方文档imagededup0.2.2的下个版本更新时很多方法都进行了一些调整。

python 去除一张图片连续颜色 python图片去重_数据集

  python版本:3.10.6
  imagededup版本:0.3.1

核心代码解释

  imagededup核心的代码部分是

from imagededup.methods import <method-name> 
method_object = <method-name>() 
duplicates =  method_object.find_duplicates(image_dir='path/to/image/directory', <threshold-parameter-value>)

  是不是看着巨简单有木有,没错,就是这么简单,剩下多余的代码全是对文件进行操作了,但它的代码可能会使用GPU进行计算。

主要参数解释:

method-name:对应的是去重使用的处理方法,可以设置为CNN、PHash、DHash、WHash、以及AHash这几种方法之一

image_dir:所有图像文件所在的目录

scores: 把它设置为 "True "会返回代表键文件中每个重复文件名的hamming距离(用于散列)或余弦相似度(用于cnn)的分数(这里我直接复制的官方使用文档,我也不太清楚什么是hamming距离和余弦相似度,反正是来比较相似度的一些指标,会用就完事了,如果想弄明白的话建议去看官方文档在这种情况下,返回的 "重复 "字典有以下内容:

python 去除一张图片连续颜色 python图片去重_数据集_02

  其中字典的键代表的是一个图片名(注意不是图片的完整路径,后续操作要加上图片的完整路径),键所对应的值为与之相似的图片的图片名。score对应是的相似的程度的一个分数。
  这里有一些需要注意的地方,举个简单的例子:

from imagededup.methods import PHash  
phasher = PHash()
duplicates = phasher.find_duplicates(image_dir=new_img_path)
print(new_dataset_duplicates)

 这里的duplicates是一个字典,打印出来如下图所示![[Pasted image 20230427212227.png]]其中字典的键代表的是一个图片名(注意不是图片的完整路径,后续操作的话可以加上图片的完整路径),键所对应的值为与之相似的图片的图片名,拿前两个进行举例,第一的键代表图片是1.jpg,它的值为空,则说明这个文件中没有与其重复的图片;第二个是图片10.jpg,它所对应的值为[‘3.jpg’, ‘9.jpg’],则说明3.jpg和9.jpg与10.jpg是重复的。注意,字典中的键包含了文件中的每一个图片,值包含了文件中所有与键相同的图片,并不是3.jpg和9.jpg与10.jpg是重复的,后面就不会有他们了,可以看到上图中第四个键为 3.jpg,它的值为[‘10.jpg’, ‘9.jpg’]。

导入imagededup包:

pip install imagededup -i https://pypi.tuna.tsinghua.edu.cn/simple

结果如下,显示已经安装成功

python 去除一张图片连续颜色 python图片去重_python 去除一张图片连续颜色_03

任务一:

注意如果是windows系统的话要加上if name==‘main’: ,因为它会默认使用多线程进行处理,不加的话会报错。
完整代码:

import os  
import shutil  
from tqdm import tqdm  
if __name__=='__main__':  
    from imagededup.methods import PHash  
    phasher = PHash()  
    new_img_path = r"path\"  # 要处理的文件路径  
    merge = r"path\"  # 合并后路径(是一个空文件夹路径,取用存放去重后不重复的图片)  
    new_dataset_duplicates = phasher.find_duplicates(image_dir=new_img_path)  
    print(new_dataset_duplicates)  
    new_k = []  
    new_v = []  
    for k, v in tqdm(new_dataset_duplicates.items(), desc="筛选新数据集"):  
        '''其实没必要搞这么麻烦,主要是防止出现类似 1:[], 2:[3, 1]或者 
        2:[3, 1], 1:[]的情况,但会大大增加计算量,要求不大的话一层for循环就能搞定''' 
        if len(v) == 0 and (k not in new_v):  
            new_k.append(k)  
            new_v.extend(v)  
            continue  
        if k not in new_v:  
            if len(new_k) == 0:  
                new_k.append(k)  
                new_v.extend(v)  
                continue  
            for jug in new_k:  
                if jug in v:  
                    break  
                else:  
                    new_k.append(k)  
                    new_v.extend(v)  
                    break  
    # 将新数据集中不重复的数据迁移到另一个文件夹中  
    for q in tqdm(new_k, desc='迁移不重复新数据集'):  
        local = os.path.join(new_img_path, q)  
        shutil.copy(local, merge)

任务二:

注意如果是windows系统的话要加上if name==‘main’: ,因为他会默认使用多线程进行处理,不加的话会报错。

import os  
import shutil  
from tqdm import tqdm  
if __name__=='__main__':  
    # 使用PHash进行处理  
    from imagededup.methods import PHash  
    phasher = PHash()  
    # 将新数据集中重复的去除掉剩下不重复的图片
    # 要建立两个空文件夹分别将路径赋值给下面merge和final——file  
    new_img_path = r"new\path"  # 新数据集路径  
    old_img_path = r"old\path"  # 旧数据集路径  
    merge = r"merge\path"  # 合并后路径(空文件夹路径)  
    final_file = r"final\path"  # 全部处理完之后保存新数据集图片的文件夹(空文件夹路径)  
    # 筛选新数据集
    # 下面这行代码时实现编码和进行比对的关键代码    
    new_dataset_duplicates = phasher.find_duplicates(image_dir=new_img_path)  
    new_k = []  
    new_v = []  
    for k, v in tqdm(new_dataset_duplicates.items(), desc="筛选新数据集"):  
      '''其实没必要搞这么麻烦,主要是防止出现类似 1:[], 2:[3, 1]或者
     2:[3, 1], 1:[]的情况,但会大大增加计算量,要求不大的话一层for循环就能搞定'''  
        if len(v) == 0 and (k not in new_v):  
            new_k.append(k)  
            new_v.extend(v)  
            continue  
        if k not in new_v:  
            if len(new_k) == 0:  
                new_k.append(k)  
                new_v.extend(v)  
                continue  
            for jug in new_k:  
                if jug in v:  
                    break  
                else:  
                    new_k.append(k)  
                    new_v.extend(v)  
                    break  
  
    # 将新数据集中不重复的数据迁移到另一个文件夹中  
    for q in tqdm(new_k, desc='迁移不重复新数据集'):  
        local = os.path.join(new_img_path, q)  
        shutil.copy(local, merge)  
  
    # 对新旧数据集合并  
    old_dataset_list = os.listdir(old_img_path)  
    for k in tqdm(old_dataset_list, desc="合并新旧数据集"):  
        move = os.path.join(old_img_path, k)  
        shutil.copy(move, merge)  
  
    # 处理合并后的新旧数据集,挑出合并后与旧数据集不重复的新数据集  
    duplicates_all = phasher.find_duplicates(image_dir=merge)  
    print(duplicates_all)  
    keys = []  
    # 如果新数据集中的图片既不在之前的数据集中,也没有和它相同的,那么就将它添加到k中。  
    for k, v in duplicates_all.items(): 
        if len(v) == 0 and (k not in old_dataset_list):  
            keys.append(k)  
  
    # 将合并后不重复的新数据集数据移动到final_file中  
    for k in tqdm(keys, desc="final treatment"):  
        all_uniq = os.path.join(merge, k)  
        shutil.copy(all_uniq, final_file)

总结

  这里我代码处理文件的部分写的不是很好,使用了两层for循环来避免出现问题,如果数据量太大的话也可以对文件处理部分进行修改,用空间换时间,如果想更熟练的运用imagededup,可以去阅读官方文档,或者看一下官方给出的几个例子