
Enviado em 14/07/2009 - 14:32h
Hoje testei algo interessante. O que acontece se eu compactar um arquivo, fazê-lo novamente com outro algoritmo, novamente com outro, e outra vez? E depois começar tudo novamente, compactando 500 vezes com 4 algoritmos totalizando 2000 compactações? Claro que eu não esperava uma redução do tamanho do arquivo, porque eu não aumentava a "força" dos algoritmos (nenhum utilizava arredondamento, sem perdas), mas eu queria esquentar a sala e queimar energia no processador é um jeito de fazer isto. Além do mais, eu tinha curiosidade de ver o resultado final e brincar com gthreads (glib é mara!)A evolução do Linux e as mudanças que se fazem necessárias desde o seu lançamento
Maquina modesta - a vez dos navegadores ferrarem o usuario
Fscrypt: protegendo arquivos do seu usuário sem a lentidão padrão de criptograr o disco
Faça suas próprias atualizações de pacotes/programas no Void Linux e torne-se um Contribuidor









