Для эффективного сжатия необходимо устранить из исходного сигнала все факторы, препятствующие сокращению избыточности телевизионного изображения. Сюда относятся в первую очередь шумы видеотракта и шумы кинопленки, проявляющиеся на всем изображении.
Источником шумов в видеотракте могут быть тепловой «белый» шум электронных устройств, пороговые шумы спутниковых ЧМ приемников, помехи декодирования аналоговых композитных сигналов, шумы видеозаписи (шумы и выпадения ленты). Один из крайне неприятных для цифровой компрессии дефектов исходного изображения — неподавленный остаток несущей цветности после аналого-цифрового преобразования, он проявляется как раз в высокочастотной области, которая обычно слабо заполнена в компонентном сигнале.
Отрицательно сказываются дефекты кинопленки — царапины, загрязнения, шумы зернистости, проявляющиеся при увеличении кинокадров. Необходимо избегать нежелательных движений, добавляющих в сигнал помехи, например дрожания плохо закрепленной видеокамеры или неравномерного движения кинопленки в телекинопроекторе из-за поврежденной перфорации.
Как работает ШУМОПОДАВЛЕНИЕ | РАЗБОР
Влияние этих составляющих дает себя знать в появлении после ДКП большого числа ненулевых коэффициентов в области высоких пространственных частот, которые кодер не может отличить от элементов изображения. В этих условиях необходимо подвергать входные сигналы кодеров сжатия специальной предобработке.
Она называется предфильтрацией и включает шумоподавление и различные виды пространственной фильтрации. В некоторых случаях при высокой степени сжатия оказывается выгоднее осуществить двумерную низкочастотную фильтрацию (прореживание отсчетов), несколько потерять в четкости изображения, но существенно снизить количество артефактов (дефектов изображения) из-за влияния нежелательных высокочастотных компонентов на входе. В общем случае хорошие результаты дает сочетание рекурсивной адаптивной фильтрации и трехмерной медианной фильтрации. Первая эффективно подавляет «белый» шум путем усреднения близких значений видеосигнала в последовательных кадрах, вторая усредняет отсчеты, расположенные выше, ниже, слева, справа, до и после текущего отсчета видеосигнала, и таким образом хорошо справляется с импульсными и другими помехами.
2. Стандарт сжатия движущихся изображений и звукового сопровождения mpeg-2
2.1. Общие сведения
Источник: studfile.net
Стандарты сжатия MPEG
Уменьшение цифрового потока видеосигнала за счет сокращения избыточности в изображении осуществляется в цифровом телевидении применением специальных эффективных методов кодирования. Для этого используются стандарты сжатия, разработанные Экспертной группой по движущимся изображениям в кинематографии (Moving Picture Experts Group — MPEG).
MPEG — это стандарты, определяющие параметры сжатия аудио- и видеофайлов и преобразования их в форматы, более удобные для пересылки. MPEG состоит из трех частей: Audio, Video, System (синхронизация двух других).
Как убрать рекламу на телевизоре Shivaki
По стандарту MPEG-1 потоки видео- и аудиоданных передаются со скоростью 150 Кбайт/с (как в односкоростном CD-ROM-проигрывателе) и управляются путем выборки ключевых видеокадров и заполнением только областей, изменяющихся между кадрами.
MPEG-1 оптимизирован для использования с разрешением: 352 ppl (point per line — точек на линии), 240 lpf (line per frame — линий в кадре), 30 fps (frame per second — кадров в секунду) с цветовой схемой YCBCr (где Y— яркостная составляющая, СB=В-У и Cr=R-Y — цветоразностные) и, к сожалению, обеспечивает качество видеоизображения более низкое, чем видео, передаваемое по телевизионному стандарту.
Перед началом кодирования происходит анализ видеоинформации, выбираются ключевые кадры, которые не будут изменяться при сжатии, а также кадры, при кодировании которых часть информации будет удаляться. Всего выделяется три типа кадров:
— кадры типа I (Intra frame) — ключевые кадры, которые сжимаются без изменений;
— кадры типа Р (Predirected frame). При кодировании этих кадров часть информации удаляется, а при воспроизведении используется информация от предыдущих I или Р кадров;
— кадры типа В (Bidirectional frame). При кодировании потери информации еще более значительны, а при воспроизведении используется информация от двух предыдущих I или Р кадров.
Наличие В кадров в видеоролике — тот фактор, благодаря которому MPEG-1 имеет высокий коэффициент сжатия, но не очень высокое качество. При кодировании формируется цепочка кадров разных типов (рис.5). Наиболее типичная последовательность — IBBPBBPBBIBBPBBPBB. Соответственно, очередь воспроизведения по номерам кадров будет выглядеть так: 1423765.
По окончании разбивки кадров на разные типы начинается процесс подготовки к кодированию. С I кадрами это достаточно просто: кадр просто разбивается на блоки, которые имеют размеры 8×8 пикселей. А вот для того, чтобы сильнее сжать кадры типа Р и В, используется алгоритм предсказания движения.
В качестве входной информации алгоритм предсказания движения получает блок текущего кадра (8×8 пикселей) и аналогичные блоки от предыдущих кадров (I- или Р- типа). После обработки имеется следующая информация:
— вектор движения текущего блока относительно предыдущих;
— разница между текущим и предыдущими блоками, которая и подвергается дальнейшему кодированию.
Вся избыточная информация удаляется, благодаря чему и достигается столь высокий коэффициент сжатия, но невозможный без потерь. В случае корректного срабатывания алгоритма предсказания движения количество кадров разного типа (I:Р:В) в байтах соотносится примерно как 15:5:2, т.е. уменьшение объема видеоинформации налицо уже на стадии подготовки к кодированию.
Дальше начинается само кодирование. Процесс кодирования содержит в себе 3 стадии:
— преобразование Фурье (дискретное косинусное преобразование — Discrete Cosine Transformation — DTC);
— квантование (Quantization) — перевод данных из непрерывной формы в дискретную;
— преобразование полученных блоков данных в их последовательность (преобразование из матричной формы в линейную).
Кодирование звука осуществляется отдельным звуковым кодером. По мере развития формата MPEG-1, звуковые кодеры неоднократно переделывались, становясь все эффективнее. К моменту окончательной стандартизации формата MPEG-1 было создано три звуковых кодера этого семейства: Layer I, Layer II (иногда называют Musicam по названию стандарта, послужившего прообразом) и Layer III.
Принципы кодирования основаны на том, что для человеческого уха в несжатом звуке (CD-audio) передается много избыточной информации. Принцип сжатия работает на «эффектах маскировки» некоторых звуков (например, если идет сильный звук на частоте 1000 Гц, то более слабый звук на частоте 1100 Гц человек уже не слышит, чувствительность слуха падает примерно на 100 мс после окончания сильного звука). Психоакустическая модель (Psycoacustic), используемая в MPEG-1, разбивает весь частотный спектр на части, в которых уровень звука считается одинаковым, а затем удаляет звуки, не воспринимаемые человеком из-за эффектов маскировки.
Синхронизация аудио- и видеоданных осуществляется с помощью специально выделенного потока данных под названием System stream. Этот поток содержит встроенный таймер, который работает с частотой 90 кГц и содержит 2 слоя: системный с таймером и служебной информацией для синхронизации кадров с аудиотреком и компрессионный с видео- и аудиопотоками.
В современном цифровом телевидении используется стандарт MPEG-2, разработанный в 1992 г. Компрессия по стандарту MPEG-2 основана на том, что более 97% цифровых данных, представляющих видеосигнал, дублируются, т.е. являются избыточными и могут быть удалены без особого ущерба качеству изображения.
Применительно к видео избыточность бывает двух видов: пространственная (дублирование информации в пределах одного кадра) и временная (дублирование в последовательно расположенных кадрах). Алгоритм MPEG-2 анализирует видеоизображение в поисках повторений и избавляется от них. После удаления избыточности в формате MPEG-2 обеспечивается качественное видеоизображение при более низкой скорости передачи данных.
Вкратце этапы кодирования таковы:
— оцифровка видео, если оно было в аналоговом виде, и масштабирование до нужного размера кадра;
— перевод изображения из цветового пространства RGB в YCbCr. На этом этапе может происходить некоторая потеря информации, связанная с разным цветовым охватом RGB и YCbCr и с округлением результатов, но на глаз она обычно незаметна;
— анализ близкорасположенных кадров на предмет совпадений с целью устранения временной избыточности (потерь информации не происходит);
— двумерное дискретное косинусное преобразование (DCT) (потерь тоже почти нет);
— адаптивная квантизация этих коэффициентов (происходит наибольшая потеря информации и вносятся наибольшие искажения);
— дальнейшее сжатие с помощью RLE и кодов Хаффмана (без потерь);
— к полученным закодированным кадрам добавляются служебные заголовки, и получается PES (Packetized Elementary Stream).
Основным параметром, который задается MPEG-2-кодеру, является битрейт (объем выходного потока в битах за единицу времени). Чем он больше, тем более качественной получается картинка, хотя, конечно, неумелым кодированием можно все испортить. Ориентируясь на заданный битрейт, кодер должен динамически подстраивать параметры алгоритмов, используемых на разных этапах, чтобы битрейт выходного потока был как можно ближе к этому значению, но при этом минимально теряя в качестве. Задача однозначного решения не имеет, производители кодеров решают ее по-разному.
При кодировании аудиосигналов обеспечивается поддержка многоканальности (5+1 каналов — left, center, right, left surround, right surround + sub-woofer), и появился стандарт AAC (Advanced Audio Coding — прогрессивное кодирование звука) с очень высоким качеством звука (скоростью 64 Кбит/с на канал).
Разработанный следом формат MPEG-3 для телевидения высокой четкости (HDTV) с максимальным разрешением 1920×1080 точек при 30 кадрах/с и скоростью потока 20. 40 Мбит/с не давал принципиальных улучшений по сравнению с MPEG-2 и благополучно «вымер».
Спецификации стандарта MPEG-4 были установлены в 1998 г. и приняты в качестве международного стандарта в 2000 г. Стандарт MPEG-4 задает принципы работы с изображением и звуком для трех областей: интерактивного мультимедиа (включая продукты, распространяемые на оптических дисках и через сеть), графических приложений (синтетического контента) и цифрового телевидения. Помимо аудио и видео, формат позволяет работать с естественными и синтезированными компьютером 2D- и 3D-объектами, производить привязку их взаимного расположения и синхронизацию друг относительно друга, а также указывать их интерактивное взаимодействие с пользователем. Кроме того, формат обеспечивает доступ к мультимедийной информации через каналы различной пропускной способности.
Алгоритм компрессии видео в MPEG-4 работает по той же схеме, что и в предыдущих форматах. При кодировании исходного изображения кодек ищет и сохраняет ключевые кадры, на которых происходит смена сюжета. А вместо сохранения промежуточных кадров прогнозирует и сохраняет лишь информацию об изменениях в текущем кадре по отношению к предыдущему.
Полученная таким образом информация сжимается по алгоритмам компрессии. Но, в отличие от предыдущих форматов, которые делили изображение на прямоугольники, при обработке изображений кодек оперирует объектами произвольной формы. К примеру, человек, двигающийся по комнате, будет воспринят как отдельный объект, перемещающийся относительно неподвижного объекта — заднего плана. Естественно, алгоритмы поиска и обработки подобных объектов требуют гораздо больше вычислительных ресурсов, нежели в случае MPEG-1/2.
Звуковая часть MPEG-4 также объектно-ориентирована. Аудио-объекты описываются на языке BIFS, что позволяет располагать источники звука в трехмерном пространстве сцены, управлять их характеристиками и применять к ним различные эффекты независимо друг от друга, перемещать источник звука при перемещении связанного с ним визуального объекта и т.п.
Для кодирования аудиообъектов MPEG-4 предлагает наборы музыкальных инструментов(для живых звуков и синтезированных). Для этого введено два языка: SAOL (Structured Audio Orchestra Language) и SASL (Structured Audio Score Language). Как следует из названия, первый задает оркестр, а второй — то, что этот оркестр должен играть.
Каждый инструмент оркестра представлен набором элементов цифровой обработки сигналов — синтезаторов и цифровых фильтров, которые все вместе и синтезируют нужный звук. С помощью SAOL можно запрограммировать практически любой нужный инструмент, природный или искусственный звук. Сначала в декодер загружается набор инструментов, а затем поток данных SASL заставляет этот оркестр играть, управляя процессом синтеза.
В MPEG-4 картинка разделяется на различные элементы, называемые «медиаобъекты» (media objects), описывается структура этих объектов и их взаимосвязи, а затем они собираются в видеозвуковую сцену. Таким образом, видеозвуковая сцена состоит из медиаобъектов, которые объединены в иерархическую структуру:
— неподвижные картинки (например, фон);
— видеообъекты (говорящий человек);
— аудиообъекты (голос, связанный с этим человеком);
— текст, связанный сданной сценой;
— синтетические объекты, которые добавляются при демонстрации сцены конечному пользователю (например, синтезируется говорящая голова).
Такой способ представления данных позволяет:
— перемещать и помещать медиа-объекты в любое место сцены;
— трансформировать объекты (изменять их геометрические размеры, форму и пр.);
— собирать из отдельных объектов составной объект и проводить над ним какие-нибудь операции;
— изменять текстуру объекта (например, цвет), манипулировать объектом (заставить ящик передвигаться по сцене);
— изменять точку наблюдения за сценой.
Важнейшая особенность MPEG-4 в том, что окончательная сборка сцены происходит на приемном конце (в компьютере или телевизоре), и пользователь сам может формировать получаемое изображение, играя роль телережиссера. Более того, среди допустимых пользовательских команд есть изменение точки наблюдения, удаление, добавление и перемещение объектов внутри сцены и многое другое. Конечно, такое воздействие должно быть разрешено создателем аудиовизуального потока информации. Команды пользователя могут быть обработаны в декодере или пересланы на передающую сторону.
Источник: studbooks.net
Что такое MPEG (Moving Picture Experts Group), стандарт? Значение.
MPEG (Moving Picture Experts Group), стандарт — это .
MPEG — это международный стандарт для сохранения аудио- и видеофайлов небольшого размера.
Стандарт был разработан группой специалистов Moving Pictures Experts Group (MPEG, с англ. «группа экспертов по движущемуся изображению»). Стандарт получил распространение, прежде всего, в мобильных устройствах.
Группа MPEG стандартизовала следующие стандарты сжатия:
MPEG-1 стандарт
Исходный стандарт видео и аудио компрессии. который был разработан в 1980-х годах. Целью при этом была запись фильмов и аудио на компакт-диски. Скорость обработки данных при этом должна была достигать 1,5 Мбит/с. В 1991 году стандарт MPEG-1 представили общественности. Результат этой разработки известен как видео-компакт-диск (стандарт для записи Video CD).
При сжатии видео и аудио возникают потери, поскольку для уменьшения аудио- или видеофайла могут быть удалены лишние данные, не воспринимаемые человеческим ухом и глазом.
MPEG-1 audio layer 3 — это полное имя весьма популярного формата сжатия аудио MP3.
MPEG-1 видео был исходно разработан с целью достичь приемлемого качества для видео на потоках 1,5 Мегабита/c и разрешении 352×240. Несмотря на то, что MPEG-1 применяется для кодирования с низким разрешением и низким битрейтом, стандарт позволяет использовать любое разрешение вплоть до 4095×4095. Большинство реализаций разработаны с учётом спецификации Constrained Parameter Bitstream.
В настоящее время MPEG-1 — наиболее совместимый формат в семействе MPEG — он проигрывается практически на всех компьютерах с VCD/DVD проигрывателями.
Самым крупным недостатком MPEG-1 видео является поддержка только прогрессивной развертки. Этот недостаток в свое время помог более быстрому признанию более универсального стандарта MPEG-2, введенного в 1994.
MPEG-2 стандарт
MPEG-2 — название группы стандартов цифрового кодирования видео и аудио сигналов, организации транспортных потоков видео и аудио информации, передачи сопутствующей информации. Стандарты MPEG одобрены ISO — Международной Организацией по стандартизации/IEC Motion Picture Experts Group (MPEG).
Стандарт MPEG-2 получил распространение в цифровых видеодисках DVD, системах компрессии видеоизображений, цифровом телевидении DVB. В случае использования в цифровом телевидении MPEG-2 активно применяется как стандарт, определяющий структуру транспортных потоков и способы передачи данных.
MPEG-3 стандарт
MPEG-3 разрабатывался группой MPEG как стандарт кодирования аудио и видео для Телевидения высокой четкости (High-definition television), имеющего скорость передачи данных в диапазоне от 20 до 40 Mбит/с. MPEG-3 начал разрабатываться приблизительно в то же время, что и MPEG-2. Однако вскоре выяснилось, что те же задачи может выполнять немного модифицированная версия стандарта MPEG-2. Вскоре после этого работа по стандарту MPEG-3 была прекращена.
MPEG-3 часто путают с MPEG-1 Part 3 Layer 3 (или MPEG-1 Audio Layer 3), называемым MP3.
MPEG-4 (MP4) стандарт
MPEG-4 (MP4) — это самый актуальный на данный момент международный стандарт, благодаря которому фильмы можно кодировать в хорошем качестве при низкой скорости передачи данных. Этот стандарт представляет собой так называемый контейнер для соответствующих файловых форматов и состоит из нескольких стандартов, включая следующие: ISO/IEC 14496-12 и -14 (MPEG-4 часть 12 и 14).
MPEG-4 организует медийные данные в иерархии и секвенции. MP4-файлы могут содержать в себе сохраненные мультимедиа. При этом речь может идти о аудио- и видеопотоках, титрах, 2D- и 3D- изображениях. Данные файлы можно воспроизводить с помощью соответствующего программного обеспечения или передавать по сети посредством потокового воспроизведения.
Стандарт MPEG-4 в основном используется для вещания (потоковое видео), записи фильмов на компакт-диски, видеотелефонии (видеотелефон) и широковещания, в которых активно используется сжатие цифровых видео и звука.
MPEG-4 включает в себя многие функции MPEG-1, MPEG-2 и других подобных стандартов, добавляя такие функции, как поддержка языка виртуальной разметки VRML для показа 3D объектов, объектно-ориентированные файлы, поддержка управления правами и разные типы интерактивного медиа. AAC (Advanced Audio Codec — или Улучшенный Аудио Кодек) был стандартизован как дополнение к MPEG-2 (часть 3), был также расширен и включен в MPEG-4.
MPEG-4 всё ещё находится на стадии разработки и делится на несколько частей. Ключевыми частями стандарта MPEG-4 являются часть 2 (MPEG-4 part 2, включая Advanced Simple Profile, используемый такими кодеками как DivX, Xvid, Nero Digital и 3ivx, а также Quicktime 6) и часть 10 (MPEG-4 part 10/MPEG-4 AVC/H.264 или Advanced Video Coding, используемый такими кодеками, как x264, Nero Digital AVC, Quicktime 7 а также используемый в цифровых дисках следующего поколения, таких, как HD DVD и Blu-ray Disc).
Аренда презентационного и проекционного выставочного оборудования в Санкт-Петербурге.
Источник: multirent.ru