Eliminando arquivos duplicados (quase!) automaticamente

Publicado por Perfil removido em 29/10/2009

[ Hits: 19.174 ]

 


Eliminando arquivos duplicados (quase!) automaticamente



Tenho em meu desktop cerca de 80GB de dados e aumentando continuamente.

Na maioria são impressões PDF de páginas que são interessantes, livros (gosto demais de ler), as mensagens do bispo, ISOs do Linux e fotos.

Problema que eu andei mudando dados de partição, copia daqui, apaga dali, muda pasta, cria pasta, nova ordem, nova desordem, as coisas viram bagunça.

E nessa bagunça, comecei a ver que dupliquei muita coisa. E comecei a ficar amoado tentando eliminar um a um. Até que tive a ideia de googlar atrás de melhor solução. Achei: chama-se fdupes.

Pra instalar, o bom e velho:

# apt-get install fdupes

Depois no terminal:

fdupes -r -S -d .

Estas opções fazem o seguinte:
  • -r : analisa diretório recursivamente
  • -S : mostra o tamanho dos arquivos (meio besta, ms gosto de ver esses dados)
  • -d : apresenta um prompt para deleção
  • "." : é o diretório que se deseja analisar. Eu rodo ele em $HOME e nas pastas de becape.

O que faz esse programa: ele analisa usando as opções e compara se tais e quais arquivos tem a mesma chave md5sum, tamanho etc e com a opção "-d" oferece a opção de apagar, em um prompt, bastando responder o número correspondente ao arquivo que se deseja manter no PC ou "all" para não apagar nada. O chato de manter todos é ter que escrever "all" o tempo todo...

P.S.. Cuidado para não confundir as coisas e perder dados acidentalmente!!!

Outras dicas deste autor

Usando o friend em C++

Coleção de paletas para sK1, Inkscape, Krita, Gimp e outros softwares artísticos

Sage - Matemática no Ubuntu

Interface de desenvolvimento Open Source

Gerador de senha 64 bits

Leitura recomendada

Snapshots BTRFS no GRUB

Como liberar espaço em partições cheias no Mandriva Linux

Montando imagem ISO

Montagem de filesystem Windows CIFS automaticamente

Desmontando partição em uso (is busy)

  

Comentários
[1] Comentário enviado por Credmann em 29/10/2009 - 18:31h

Muito boa a dica.
Recomendo o FSLint também. Essa é uma das funções mas criando hardlinks para os duplicados.
Há um patch para o fdupes criar hardlinks ao invés de remover as duplicatas. Mas creio que ainda não foi incorporado.

[2] Comentário enviado por albertguedes em 29/10/2009 - 19:10h

Pois é, fdupes deveria ter a opção de criar links também.
Vou verificar esse programa, mas se não tiver essa opção, será um erro crasso dos desenvolvedores.

[3] Comentário enviado por VonNaturAustreVe em 29/10/2009 - 22:24h

Bem interessante para dar ganhar um espaçosinho no HD :)

[4] Comentário enviado por m4rc310 em 30/10/2009 - 15:21h

-N --noprompt junto com --delete, preserva o primeiro arquivo em
cada conjunto dos duplicados e deleta o resto sem
sem a intervenção do usuário. Automaticamente!!! ;-)


[5] Comentário enviado por removido em 30/10/2009 - 16:51h

SHHHHHH!!!!! NÃO ESPAIA!!!! Se não, daqui a pouco veremos posts assim: URGENTE FDUPES APAGOU TUDO!!! rsrs...

Se apagando um a um a gente pode fazer asneira, imagina o computador???

Na verdade, não utilizo esta opção porque em geral o arquivo repetido (LEI DE MURPHY) que fica em geral é aquele que não queremos. Pensa nesta situação:

/home/vfs/.Trash-1000/fusca.jpg
/home/vfs/fusca.jpg
/VFS-DATA/LIBRARY/AUTOMOTIVE/FUSCA/fusca.jpg

Percebe??? Eu quero ficar com o último, que está no local correto (para meus propósitos)...

O programa não poderá fazer um bom trabalho automático neste caso... É como uma certa parábola sobre joio e trigo. Mas muito oportuno seu comentário, estou apenas esclarecendo a razão da omissão. Parabéns pelo grau de conhecimento e iniciativa! Abraços.

[6] Comentário enviado por baboo360 em 29/07/2012 - 18:07h

Valter um obriiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiigadooooooooooooooooooo enorme por essa dica, valeu mesmo



Contribuir com comentário




Patrocínio

Site hospedado pelo provedor RedeHost.
Linux banner

Destaques

Artigos

Dicas

Tópicos

Top 10 do mês

Scripts