Criando backups com Amazon S3

Backups! Backups!! Backups!!! Afinal precisamos sempre manter backups de nossos arquivos, sejam eles pessoais ou profissionais. Com a facilidade de criar backups hoje em dia, podemos contar com diversos meios para isto, serviços como DropBox, Google Backup entre outros são uma ótima forma de manter seus backups salvos.

[ Hits: 11.671 ]

Por: Percio Andrade Castelo Branco em 07/07/2016


Automatização



Percio, eu estou morrendo de preguiça e preciso que isto seja feito rapidamente, tem alguma maneira?

Sim pequeno gafanhoto, para automatizar todo este processo de instalação, criação e adição criei um script que lhe ajudará a configurar todo o servidor.

O script pode ser acessado aqui no vivaolinux ou no GitHub pelo endereço:
A descrição do script pode ser visualizada aqui:
Qualquer dúvida, entre em contato.

:wq!

Página anterior    

Páginas do artigo
   1. O que é o Amazon S3
   2. Configuração
   3. Automatização
Outros artigos deste autor

Backups com Amazon S3

Leitura recomendada

Instalando FreeNAS 8.3.0 e criando Storage iSCSI

Bacula Server 7.0.3 com PostgreSQL no Debian

Conhecendo o rSync

Implantando um Servidor de Backup com Bacula - Debian Squeeze

Live do Ubuntu com programa PartImage como Ferramenta para Backup do Windows 7

  
Comentários
[1] Comentário enviado por fabio em 07/07/2016 - 02:53h

Muito bom! Eu já usava o Amazon EC2 e não tinha conhecimento sobre o E3. Acabei de criar um bucket e já estou usando! Vou aposentar meu Dropbox.

A instalação no Debian é bem simples:

# apt-get install s3fs

Depois é criar o arquivo ~/.passwd-s3 usando o procedimento do artigo e montar o diretório usando o comando s3fs conforme explicado aqui.

[2] Comentário enviado por Tacioandrade em 08/07/2016 - 00:35h

Só uma dica sobre o s3fs, fazendo uso dele com mais de um servidor ao mesmo tempo, acesso simultâneo ao mesmo arquivo irá corrompe-lo. Quem me passou isso foi um amigo que o utilizou e acabou perdendo dezenas de arquivos. =/

Att. Tácio Andrade.

[3] Comentário enviado por percioandrade em 08/07/2016 - 02:36h

É verdade e a resposta é devido a forma como ele trata os arquivos e suas limitações:

S3 LIMITATIONS

Objects can contain a maximum of 5GB.
You can't update part of an object. If you want to update 1 byte in a 1GB object you'll have to reupload the entire GB.

High risk for data corruption, due to the delayed writes (e.g., your system or the connection to AWS fails). Journaling doesn't help because as far as the filesystem is concerned the blocks have already been written (I.e., to S3Backer's cache).

Aqui tem toda a explicação do S3 e do S3FS: https://www.turnkeylinux.org/blog/exploring-s3-based-filesystems-s3fs-and-s3backer

O S3FS recomendo para uso pessoal, mas o Amazon S3 existe "N" maneiras de montar como um webserver por exemplo onde é possível ultrapassar estas limitações e fazer múltiplos acessos.

[4] Comentário enviado por baptista em 21/07/2016 - 19:09h

Quem quiser aprender mais sobre o AWS, temos um treinamento online em nosso site:

http://cursos.escolalinux.com.br/curso/aws-para-devops-20-horas


Contribuir com comentário




Patrocínio

Site hospedado pelo provedor RedeHost.
Linux banner

Destaques

Artigos

Dicas

Tópicos

Top 10 do mês

Scripts