Eliminando arquivos duplicados (quase!) automaticamente

Publicado por Perfil removido em 29/10/2009

[ Hits: 19.152 ]

 


Eliminando arquivos duplicados (quase!) automaticamente



Tenho em meu desktop cerca de 80GB de dados e aumentando continuamente.

Na maioria são impressões PDF de páginas que são interessantes, livros (gosto demais de ler), as mensagens do bispo, ISOs do Linux e fotos.

Problema que eu andei mudando dados de partição, copia daqui, apaga dali, muda pasta, cria pasta, nova ordem, nova desordem, as coisas viram bagunça.

E nessa bagunça, comecei a ver que dupliquei muita coisa. E comecei a ficar amoado tentando eliminar um a um. Até que tive a ideia de googlar atrás de melhor solução. Achei: chama-se fdupes.

Pra instalar, o bom e velho:

# apt-get install fdupes

Depois no terminal:

fdupes -r -S -d .

Estas opções fazem o seguinte:
  • -r : analisa diretório recursivamente
  • -S : mostra o tamanho dos arquivos (meio besta, ms gosto de ver esses dados)
  • -d : apresenta um prompt para deleção
  • "." : é o diretório que se deseja analisar. Eu rodo ele em $HOME e nas pastas de becape.

O que faz esse programa: ele analisa usando as opções e compara se tais e quais arquivos tem a mesma chave md5sum, tamanho etc e com a opção "-d" oferece a opção de apagar, em um prompt, bastando responder o número correspondente ao arquivo que se deseja manter no PC ou "all" para não apagar nada. O chato de manter todos é ter que escrever "all" o tempo todo...

P.S.. Cuidado para não confundir as coisas e perder dados acidentalmente!!!

Outras dicas deste autor

Desinstalando o Freerock Gnome

Como criar um pacote RPM com o executável do Lazarus [Vídeo]

Liberando conexão (Limewire)

Instalando a webcam no Slackware 13

Impressora HP Deskjet F4480

Leitura recomendada

duf - Disk Usage/Free utility

Erro ao inciar sessão gráfica (status 256)

Trocar Linux de patição / HD sem clonagem

Samba com log de acesso e lixeira - Instalação e configuração no Debian 6/7 e Ubuntu

APTonCD: backup do APT-GET

  

Comentários
[1] Comentário enviado por Credmann em 29/10/2009 - 18:31h

Muito boa a dica.
Recomendo o FSLint também. Essa é uma das funções mas criando hardlinks para os duplicados.
Há um patch para o fdupes criar hardlinks ao invés de remover as duplicatas. Mas creio que ainda não foi incorporado.

[2] Comentário enviado por albertguedes em 29/10/2009 - 19:10h

Pois é, fdupes deveria ter a opção de criar links também.
Vou verificar esse programa, mas se não tiver essa opção, será um erro crasso dos desenvolvedores.

[3] Comentário enviado por VonNaturAustreVe em 29/10/2009 - 22:24h

Bem interessante para dar ganhar um espaçosinho no HD :)

[4] Comentário enviado por m4rc310 em 30/10/2009 - 15:21h

-N --noprompt junto com --delete, preserva o primeiro arquivo em
cada conjunto dos duplicados e deleta o resto sem
sem a intervenção do usuário. Automaticamente!!! ;-)


[5] Comentário enviado por removido em 30/10/2009 - 16:51h

SHHHHHH!!!!! NÃO ESPAIA!!!! Se não, daqui a pouco veremos posts assim: URGENTE FDUPES APAGOU TUDO!!! rsrs...

Se apagando um a um a gente pode fazer asneira, imagina o computador???

Na verdade, não utilizo esta opção porque em geral o arquivo repetido (LEI DE MURPHY) que fica em geral é aquele que não queremos. Pensa nesta situação:

/home/vfs/.Trash-1000/fusca.jpg
/home/vfs/fusca.jpg
/VFS-DATA/LIBRARY/AUTOMOTIVE/FUSCA/fusca.jpg

Percebe??? Eu quero ficar com o último, que está no local correto (para meus propósitos)...

O programa não poderá fazer um bom trabalho automático neste caso... É como uma certa parábola sobre joio e trigo. Mas muito oportuno seu comentário, estou apenas esclarecendo a razão da omissão. Parabéns pelo grau de conhecimento e iniciativa! Abraços.

[6] Comentário enviado por baboo360 em 29/07/2012 - 18:07h

Valter um obriiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiigadooooooooooooooooooo enorme por essa dica, valeu mesmo



Contribuir com comentário




Patrocínio

Site hospedado pelo provedor RedeHost.
Linux banner

Destaques

Artigos

Dicas

Tópicos

Top 10 do mês

Scripts