Cara, isso ai é bem complexo de ser explicado aqui no fórum, mas vou tentar.
Até onde eu sei e li em livros a compactação de arquivos surgiu através do Algoritmo de Huffman. Dentre outras características e aplicações, esse algoritmo descreve uma Árvore Binária (BT) que é uma de estrutura de dados bem específica para, por exemplo, mecanismos de busca e transferência de dados. Não vou entrar em detalhes, mas essa estrutura exige bem menos processamento do que uma busca em um array.
Lá trás quando Huffman escreveu esse algoritmo ele pensou em potencializar o uso de memória, isto é, por meio de árvores ele "quebra" o arquivo X bit a X bit e meio que o separa em endereços de memória correlacionados por ponteiros. Assim, quando temos arquivos muito pequenos como o seu, compactá-los os deixa maiores já que você utiliza mais endereços de memória do que anteriormente eram nescessários.
Desculpe se não fui claro o bastante, por, novamente, ser um assunto complexo e também por eu não ser um especialista na área.