Skip to content

Ginsakura/Create_HardLink_for_Duplicate_Files

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

18 Commits
 
 
 
 
 
 
 
 
 
 

Repository files navigation

Create_HardLink_for_Duplicate_Files

Create Hard Links for duplicate files

为指定目录下重复文件创建硬链接以节约磁盘占用

用法

  • Python.exe ./DuplicateFiles.py [-operation]
  • Path:输入你想查询/去除重复文件的目录

-operation可选项: -d,-u,-h,-r,-show,-show-count,-unsafe

  • Python.exe ./Fix0B.py
  • 修复把所有0字节文件当成同一个文件的bug,

运行Fix0B.py将会还原所有0字节文件

已在DuplicateFiles.py中添加排除0字节文件的语句

功能

  1. 本脚本对大小写敏感,对\,/也敏感

    • E:/,E:\,e:\,e:/是不同的目录

    • E:/temp\,e:\tEmp\也是不同的目录

  2. 迭代扫描指定目录的所有文件并写入数据库
    • 仅存储文件路径、文件名、文件大小(Byte)、文件md5
  3. 指定-d参数
    • 可以跳过扫描直接读取数据库进行去重
    • 前提是之前进行过扫描,并且有FileData.db文件存在
  4. 指定-u参数
    • 可以更新数据库文件,并进行去重
  5. 指定-r参数
    • 将在开始前删除当前路径的表,重新建表后再去重
  6. 指定-unsafe参数
    • -d-r-u模式下,使用-unsafe参数可以切换去重操作为不安全模式,至于有没有更快……谁知道呢~)
  7. 指定-show参数
    • 展示数据库中已有的表
  8. 指定-show-count参数
    • 展示数据库中已有的表,并显示表内记录数

About

Create Hard Links for duplicate files

Resources

License

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published

Languages