Enviado em 14/07/2009 - 14:32h
Hoje testei algo interessante. O que acontece se eu compactar um arquivo, fazê-lo novamente com outro algoritmo, novamente com outro, e outra vez? E depois começar tudo novamente, compactando 500 vezes com 4 algoritmos totalizando 2000 compactações? Claro que eu não esperava uma redução do tamanho do arquivo, porque eu não aumentava a "força" dos algoritmos (nenhum utilizava arredondamento, sem perdas), mas eu queria esquentar a sala e queimar energia no processador é um jeito de fazer isto. Além do mais, eu tinha curiosidade de ver o resultado final e brincar com gthreads (glib é mara!)Enviar mensagem ao usuário trabalhando com as opções do php.ini
Meu Fork do Plugin de Integração do CVS para o KDevelop
Compartilhando a tela do Computador no Celular via Deskreen
Como Configurar um Túnel SSH Reverso para Acessar Sua Máquina Local a Partir de uma Máquina Remota
Configuração para desligamento automatizado de Computadores em um Ambiente Comercial
Compartilhamento de Rede com samba em modo Público/Anônimo de forma simples, rápido e fácil
Cups: Mapear/listar todas as impressoras de outro Servidor CUPS de forma rápida e fácil
Criando uma VPC na AWS via CLI
Tem como instalar o gerenciador AMD Adrenalin no Ubuntu 24.04? (15)
Tenho dois Link's ( IP VÁLIDOS ), estou tentando fazer o failover... (0)
Pendrive não formata de jeito nenhum (4)