Enviado em 05/02/2020 - 22:41h
Amigos venho a tempos procurando um método de backup inteligente para arquivos grandes, isso já vejo alcançado por grandes corporação de backup ex: crashplan , idrive mas para o sysadmin ainda não achei a ferramenta apropriada hoje uso o bacula , já usei o rsync,rsnap , vou explicar minha situação atual usando uma empresa que cuido eu tenho um banco firebird de 180gb que altera por dia algo em torno de 500mb o que ocorre as 18:30 começa meu backup que por ser um arquivo unico e o bacula vê que mudou e começa a copiar o banco inteiro que termina por volta de 21:30 pois compacto para ganhar espaço o backup em nuvem começa as 19:00 e termina as 19:20, isso me deixa revoltado kkk ele externo da minha empresa tem mas velocidade e inteligencia do que eu dentro com switch gigabyte não consigo ter varias versões pois meu hd de 2TB esta com varias vezes o mesmo arquivo enquanto em 2tb eu poderia ter umas 100 versões, alguem já enfrentou esse problema e conseguiu alguma solução ? eu tenho esse mesmo problema com imagens kvm de 300gb .Compartilhando a tela do Computador no Celular via Deskreen
Como Configurar um Túnel SSH Reverso para Acessar Sua Máquina Local a Partir de uma Máquina Remota
Configuração para desligamento automatizado de Computadores em um Ambiente Comercial
Como renomear arquivos de letras maiúsculas para minúsculas
Imprimindo no formato livreto no Linux
Vim - incrementando números em substituição
Efeito "livro" em arquivos PDF
Como resolver o erro no CUPS: Unable to get list of printer drivers
É cada coisa que me aparece! - não é só 3% (3)
Melhorando a precisão de valores flutuantes em python[AJUDA] (5)
[Python] Automação de scan de vulnerabilidades
[Python] Script para analise de superficie de ataque
[Shell Script] Novo script para redimensionar, rotacionar, converter e espelhar arquivos de imagem
[Shell Script] Iniciador de DOOM (DSDA-DOOM, Doom Retro ou Woof!)
[Shell Script] Script para adicionar bordas às imagens de uma pasta