
Enviado em 14/07/2009 - 14:32h
Hoje testei algo interessante. O que acontece se eu compactar um arquivo, fazê-lo novamente com outro algoritmo, novamente com outro, e outra vez? E depois começar tudo novamente, compactando 500 vezes com 4 algoritmos totalizando 2000 compactações? Claro que eu não esperava uma redução do tamanho do arquivo, porque eu não aumentava a "força" dos algoritmos (nenhum utilizava arredondamento, sem perdas), mas eu queria esquentar a sala e queimar energia no processador é um jeito de fazer isto. Além do mais, eu tinha curiosidade de ver o resultado final e brincar com gthreads (glib é mara!)Gentoo binário em 2026: UEFI, LUKS, Btrfs e Systemd
Trabalhando Nativamente com Logs no Linux
Jogando Daikatana (Steam) com Patch 1.3 via Luxtorpeda no Linux
LazyDocker – Interface de Usuário em Tempo Real para o Docker
Por que sua empresa precisa de uma PKI (e como automatizar EMISSÕES de certificados via Web API)
Instalando NoMachine no Gentoo com Systemd (acesso Remoto em LAN)
Gentoo: Trocando wpa_supplicant pelo iwd no NetworkManager (Systemd)
OCS Inventory NG: Instalação de Agentes Linux e Windows + Autenticação HTTP
Removere linux-image-6... [RESOLVIDO] (2)
Quando vocês pararam de testar distros? (19)
O que houve com slackware ??? (6)









