Грациозный слоненок:Алгоритмы сжатия действительно бывают очень разными, но суть на выходе одна.Т.е. если вы не сжимаете 100 гиг, а всего лишь пару мег, то разницу вы получите, ну пусть 50 кбайт(в болешее не поверю) и то из-за статистической погрешности.В другом примере проигравший алгоритм будет впреди.
Вообще-то надо учитывать еще ограничение по времени. Поэтому сравнивать с компьютерными архиваторами некорректно - они временем не ограничиваются. Алгоритмы, работающие в реальном времени (с определенной, но достаточно малой задержкой) априори дадут на выходе в среднем менее сжатый поток. Причем эта разница в случае текстовой информации регулярного типа будет в разы, а то и в порядки.