iproger
@iproger
Безответственный гений

Можно ли использовать такой способ сжатия фотографий?

Все нижесказанное является небольшим рассуждением.

Известно, что фотография плохо сжимается, т.к. имеет мало схожих точек. А что если при наличии 100 штук склеить их в 1 и сжать. В итоге увеличиться вероятность встретить большее кол-во одинаковых точек. Что скажите?
  • Вопрос задан
  • 3009 просмотров
Пригласить эксперта
Ответы на вопрос 4
ntkt
@ntkt
Потомственный рыцарь клавиатуры и паяльника
Сколько-нибудь заметного сжатия не получится. Две сырые фотографии статичного пейзажа в солнечный день, снятые с одного и того же места одним фотоаппаратом с разницей в 0.1 секунды бинарно отличаются очень сильно -- высокочастотные шумы от матрицы, пусть даже глаз и не заметит разницы. Именно поэтому сжатие изображений основывается на частотных преобразованиях (те же дискретные косинусные преобразования в JPEG).
Ответ написан
Spetros
@Spetros
IT-шник
То, о чем вы спрашиваете называется межкадровая разность и используется в видео.
Кстати о фотографиях, "если при наличии 100 штук склеить их в 1 и сжать", то можно получить, как ни странно, видео.
Ответ написан
Те фотографии, что человеку (!) кажутся похожими (например, 100 фотографий голубого неба+белого пляжа) на самом деле имеют некоторую общую информацию, но она находится в низкочастотной части спектра и ее очень и очень мало от общего объема информации. Я бы оценил в диапазоне от 0,5 до 2 %.

Всё остальное - это средне и высокочастотный спектр (расположение и кривизна береговой линии, камни, волны, облака и т.п.) - он занимает подавляющую часть информации при сжатии, и он будет для каждого фото разным.
Ответ написан
Deerenaros
@Deerenaros
Программист, математик, задрот и даже чуть инженер
Ну вообще-то такое есть и часто используется, например, кодек H264 использует схожие области смежных кадров, запоминая только исходный и различие между ними.

К слову, есть даже такой метод сжатие, который находит похожие области в пределах одного фото, весьма перспективный - фрактальное сжатие. Если кратко, то изображение делиться на подизображения, среди которых выделяются ранговые, а к ним ищутся доменные и определяется аффинное преобразование, применив которое к доменному получиться ранговый. Сложно звучит, если ещё проще - ищем в изображении похожие друг другу подизображения, запоминаем один из них и преобразование.

Самые перспективные из них в лабораторных условиях сжимали в миллион раз. И не просто так - изображение имеет чрезвычайно высокую энтропию, количество информации в лене.bmp на килобайт едва превышает пару бит. Но проблема в том, что все существующие алгоритмы имеют фатальный недостаток - они узкоспециализированные (JPEG для фото, ибо артефакты; векторы для анимаций и графики, ибо тяжко декодировать; PNG всё таки тяжеловат и т.д.). Проблема ещё усугубляется в том, что изображение имеет низкую информативность обычно во всём спектре, то есть и НЧ и СЧ и ВЧ - везде высокая избыточность, но в сигнале, а raw-data обычно не сильно отличается от рандом; и в то же время сигнал не получается сжимать так, чтобы эффективно сжимался весь спектр.

P.S. Ни разу не известно, как я только что объяснил, что фотография плохо сжимается. Вопрос лишь "как" это сделать эффективно.
Ответ написан
Комментировать
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Войти через центр авторизации
Похожие вопросы