Что такое частота сигнала простым языком
Частота f сигнала — величина, обратная его периоду T: $$ f = 1 / T. $$ Из определения следует, что частота численно равна количеству колебаний (количеству периодов) в единицу времени.
Понятия частоты и периода применимы, строго говоря, только к периодическим сигналам (функциям). Для заданной периодической функции, частота и период — постоянные величины.
Реальные сигналы не идеальны, они никогда не бывают строго периодическими. Тем не менее, по отношению к реальным сигналам также используется понятие частоты. Что понимают под частотой в этом случае?
Оглавление
Частота сигнала. Измерение частоты. Мгновенная и средняя частота
Смотрите также
Введение
Частота — важный параметр сигнала. Существует огромное множество случаев, когда необходимо знать частоту сигнала, или иметь возможность измерить частоту с высокой точностью (с целью тестирования, диагностики устройств и поиска неисправностей; для выполнения измерений в таких измерительных системах, где используется преобразование величин в частоту сигнала и т.д.). Очень часто требуется генерировать сигнал с нужной частотой: многие устройства содержат в себе генераторы опорного сигнала, от точности установки и стабильности частоты которых, зависит нормальная работа устройств. Например, очень жёсткие требования предъявляются к передатчикам (которые не должны мешать соседям по диапазону). Но и в приёмнике частота гетеродина также должна быть точно установлена и стабильна, от этого зависит точность настройки на передатчик и качество приёма. От качества опорного генератора напрямую зависит точность многих приборов (таких, например, как цифровые частотомеры или, скажем, обычные часы).
Но что это такое — частота? Рассмотрим подробнее этот вопрос.
Понятие частоты периодического сигнала
Как уже было отмечено в самом начале, понятия периода и частоты применимы только к периодическим * сигналам (или функциям). Функция u(t) называется периодической, если существует число T > 0 такое, что для любого t $$ u(t \pm T) = u(t), $$ значение T называют периодом функции.
Рис. %img:pf
Понятно, что при таком определении периодическая функция имеет бесконечно много периодов: если некоторая величина является периодом функции, то и любая кратная ей величина также будет периодом. Но если периодическая функция — не константа, то для неё существует наименьший период (наименьшая положительная величина, являющаяся периодом). Далее под периодом будем подразумевать именно наименьший период.
* В математике также рассматриваются «почти периодические» функции, но это весьма специфический вопрос и в математике этим термином обозначается не совсем то, что имеется в виду под «почти периодическими» функциями в технике.
Частота периодического сигнала (функции) — величина, обратная его периоду: $$ f = 1 / T. $$
Рис. %img:hf
Примером периодического сигнала является гармонический (синусоидальный) сигнал (рис. %img:hf). Для того чтобы полностью описать такой сигнал, достаточно задать всего три параметра: амплитуду сигнала A, период T (или, что равнозначно, частоту f) и начальную фазу \( <\phi>_0 \), $$ u(t)=A \sin \left( \frac T t + <\phi>_0 \right). $$ Запишем то же самое с использованием частоты: $$ u(t) = A \sin( 2 \pi f t + <\phi>_0). $$ Наряду с частотой сигнала, также рассматривается циклическая (также иногда называемая круговой или угловой) частота \( \omega = 2 \pi f \), используя которую, выражение для синусоидального сигнала можем записать следующим образом: $$ u(t) = A \sin( \omega t + <\phi>_0). $$ Иногда слово «циклическая» опускают, если из контекста или обозначений понятно, о какой именно частоте идёт речь.
Последнее выражение можно записать ещё проще: $$ u(t) = A \sin \phi(t), $$ где \( \phi(t) = \omega t + <\phi>_0 \) — фаза сигнала. Нетрудно заметить, что фаза синусоидального сигнала линейно растёт со временем. Со скоростью, равной циклической частоте: $$ \frac = \omega, $$ откуда можем выразить частоту через фазу (фаза рассматривается как функция времени) $$ \omega = \frac , \\ f = \frac <\omega> = \frac 1 \frac . $$ Как и в случае любого периодического сигнала, частота синусоидального сигнала является константой.
Частота реального сигнала. Мгновенная частота
Строгие определения и формальные теоретические подходы хороши для математики. В реальной жизни, в технике, сигналы никогда не бывают периодическими. Прежде всего, потому что никакой сигнал не может длиться бесконечно долго. Сигнал имеет начало и конец, что уже нарушает идеальную периодичность. Но даже если отвлечься от этого, скорее философского вопроса о конечности существования, то и за время существования сигнала, строгая периодичность недостижима. С другой стороны, некоторая степень регулярности и повторяемости характерна для очень многих реальных сигналов.
Часто такие сигналы оказывается удобно представлять в квазигармонической форме $$ \begin u(t)=A(t) \sin \phi (t), \label \end $$ где в отличие от гармонического сигнала (т.е. сигнала вида \( u(t)=A \sin \omega t \)), амплитуда A(t) уже не обязательно постоянна, а фаза \( \phi(t) \) не обязана линейно изменяться со временем.
Рис. %img:cf
Функция A(t) описывает поведение огибающей сигнала. Фаза \( \phi(t) \) определяет поведение сигнала в пределах «периода» и «повторяемость» сигнала. В частности, фаза определяет моменты прохождения сигнала через 0: если \( \sin \phi = 0 \), то понятно, что и \( u(t) = 0 \); это происходит, когда $$ \phi (t) = k \pi, $$ где k — целое.
Мгновенной частотой такого квазигармонического сигнала, по аналогии с гармоническим, называют скорость изменения его фазы: $$ \omega = \frac . $$ Мгновенная частота реального сигнала — это уже не постоянная величина, а функция времени.
Заметим, что даже в случае периодических с математической точки зрения, идеальных сигналов, иногда бывает удобнее рассматривать их как «не вполне» периодические, с изменяющейся во времени амплитудой и/или частотой.
Простейший пример — модулированный по амплитуде сигнал при модуляции его гармоническим сигналом: $$ u(t) = A (1 + m \sin \Omega t) \sin \omega t, $$ предполагаем, что \( \Omega \ll \omega \). Для простоты начальные фазы считаем равными 0.
Очевидно, что период \( T = 2 \pi / \omega \) несущего колебания уже не является периодом модулированного сигнала из-за множителя \( (1 + m \sin \Omega t) \), который изменится через время T.
Легко показать, что если частота несущего сигнала кратна частоте модулирующего сигнала, т.е. $$ \omega = k \Omega, $$ k — целое, то период модулированного сигнала оказывается равным периоду модулирующего. Если частоты не кратны, но соизмеримы (их отношение выражается рациональным числом), то период сигнала оказывается ещё больше, он будет в целое количества раз больше периода низкочастотного модулирующего колебания. А если частоты несоизмеримы (их отношение не является рациональным числом), то модулированный сигнал, строго говоря, оказывается непериодическим.
Излишне говорить, что с практической точки зрения такой подход совершенно неудобен; истинные частота и период рассмотренного сигнала абсолютно не отражают его реальных свойств. В то же время, мгновенная частота, которая в случае амплитудно-модулированного сигнала равна частоте несущего сигнала \( \omega \), оказывается намного более объективной и информативной характеристикой сигнала.
Перейдём теперь к вопросу об измерении частоты. В общем случае, измерение мгновенной частоты сигнала — достаточно сложная задача. Она заметно упрощается, когда заранее имеется информация о характере сигнала (известен вид функции, описывающей сигнал). Тогда, отслеживая мгновенные значения сигнала и обрабатывая эти данные (с помощью аналоговой цепи или цифровыми методами), сможем определять мгновенную частоту сигнала в любой момент. Получаемая при этом точность, по ряду причин, часто оказывается не слишком высокой.
Очень точному измерению поддаётся среднее значение частоты сигнала, об этом далее.
Среднее значение частоты. Измерение частоты
Пусть мы имеем сигнал вида $$ u(t)=A(t) \sin \phi (t), $$ где A(t) > 0. Тогда точки, в которых сигнал проходит через нулевые значения, определяются только фазой. Возьмём две последовательные точки t1 и t2 такие, что в этих точках $$ \sin \phi(t) = 0, $$ а значит и $$ u(t) = 0, $$ причём u(t) проходит через нулевое значение в этих точках в одном направлении. Например, от отрицательных значений к положительным (рис. %img:mf). Это означает, что \( \sin’ \phi \) в этих точках имеет одинаковый знак, в нашем случае — оба значения положительные.
Рис. %img:mf
С учётом свойств периодичности тригонометрических функций, можем утверждать, что значения фазы в указанных точках отличаются на \( 2 \pi \): $$ \phi(t_2) — \phi(t_1) = 2 \pi. $$
Так как мгновенная циклическая частота \( \omega = d \phi / dt \), то эта же разность фаз может быть вычислена интегрированием мгновенной частоты: $$ \phi(t_2) — \phi(t_1) = \int_^ \frac dt = \int_^ \omega dt. $$ А так как \( \phi(t_2) — \phi(t_1) = 2 \pi \), то и $$ \int_^ \omega dt = 2 \pi. $$
Далее воспользуемся тем, что интегрирование функции и нахождение её среднего — взаимосвязанные операции. По определению, среднее значение x на отрезке [t1, t2] равно $$ \bar = \frac 1 \int_^ x dt, \\ \Delta t = t_2 — t_1. $$ Тогда среднее значение циклической частоты $$ \bar <\omega>= \frac 1 \int_^ \omega dt = \frac . $$ Среднее значение частоты $$ \bar f = \frac = \frac 1 . $$
Получили что для того, чтобы измерить среднее значение частоты, достаточно измерить промежуток времени между двумя моментами, когда сигнал проходит через нулевое значение (в одном направлении). Впрочем, этот результат вполне соответствует интуитивному представлению о периоде реального сигнала и соотношению между периодом и частотой.
Если сигнал высокочастотный, то интервал \( \Delta t \) становится очень малым и, его оказывается трудно измерить с высокой точностью. Тогда оказывается выгодным взять интервал, за который фаза сигнала возрастает не на \( 2 \pi \), а на кратное этой величине значение, т.е \( 2 \pi m \), где m — целое: $$ \Delta \phi = 2 \pi m. $$ Иначе говоря, измеряем длительность не одного периода сигнала, а длительность m периодов. Тогда средняя частота за соответствующий интервал времени составит $$ \bar f = \frac 1 \int_^ \omega dt = \frac , \\ \bar f = \frac m . $$ Интервал измерения \(\Delta t \) по-прежнему зависит от периода сигнала, но теперь, изменяя m, можем влиять на длительность интервала, приближая его с большей или меньшей точностью к желаемому значению.
Для точного измерения \( \Delta t \) хорошо подходят цифровые методы. Покажем, как выполнить измерение. Преобразуем исходный сигнал в цифровой таким образом, что значениям \( u(t) \lt 0 \) будет соответствовать логический 0, а значениям \( u(t) \ge 0 \) — логическая 1 (рис. %img:df). Тогда моментам перехода исходного сигнала через 0 от отрицательных значений к положительным, будут соответствовать фронты полученного цифрового сигнала.
Рис. %img:df
На самом деле, обязательно наличие гистерезиса при преобразовании (порог переключения от 0 к 1 должен быть выше, чем порог обратного переключения). В противном случае, вблизи порога переключения будем получать пачки паразитных импульсов из-за наличия шумов и помех в сигнале. Но это детали реализации, не изменяющие самого принципа.
Задача определения промежутка времени между двумя заданными фронтами решается очень просто — с помощью счётчика подсчитывается количество импульсов n эталонного генератора с частотой fr (с периодом Tr) за этот промежуток времени (по первому фронту сигнала счёт запускается, по последнему — останавливается). Тогда $$ \Delta t = n T_r = n / f_r, \\ \bar f = \frac m = f_r \frac m n. $$
Целое значение m задаётся точно. Подсчёт n выполняется с точностью \( \pm 1 \), поэтому относительная погрешность счёта, а значит и погрешность измерения \( \bar f \) составляет 1 / n (без учёта погрешности эталонного генератора). Для получения как можно меньшей относительной погрешности выгодно, чтобы значение n было как можно больше. Увеличивать n можно, увеличивая частоту эталонного генератора. Однако, на этом пути имеются ограничения, связанные с предельным быстродействием счётчика. Другой вариант — увеличивать длительность интервала измерения, увеличивая m. Этот подход позволяет достичь очень высокой точности измерений, но ценой увеличения длительности измерения.
Динамическая погрешность измерений
Мы нашли способ определения средней частоты сигнала за некоторый интервал времени с высокой точностью. Но если частота сигнала изменяется, средняя частота даёт слишком мало информации о сигнале. Зачастую бывает необходимо знать, как во времени изменяется мгновенная частота сигнала и насколько сильно она отклоняется от среднего значения.
Рассмотрим, как соотносятся средняя и мгновенная частота на примере сигнала, модулированного по частоте гармоническим сигналом: $$ \omega = <\omega>_0 + \Delta \omega \sin \Omega t. $$ Здесь
\( \omega \) — мгновенная частота модулированного сигнала;
\( <\omega>_0 \) — его средняя частота;
\( \Delta \omega \) — наибольшее отклонение мгновенной частоты от среднего значения;
\( \Omega \) — частота модулирующего гармонического сигнала.
Для простоты считаем, что начальная фаза модулирующего воздействия равна 0.
Так как мгновенная частота по определению \( \omega = d \phi / dt \), то фаза модулированного сигнала описывается выражением $$ \phi = \int \omega dt = \int (<\omega>_0 + \Delta \omega \sin \Omega t) dt = <\omega>_0 t — \frac <\Omega>\cos \Omega t + <\phi>_0, $$ а сам сигнал может быть представлен в следующей форме $$ u(t) = A \sin \left( <\omega>_0 t — \frac <\Omega>\cos \Omega t + <\phi>_0 \right), $$ впрочем, в данном случае это не столь важно.
Посмотрим, какой результат даст измерение средней частоты сигнала $$ \bar \omega = \frac 1 \int_^ \omega dt = \\ = \frac 1 \int_^ (<\omega>_0 + \Delta \omega \sin \Omega t) dt = \\ = <\omega>_0 — \frac <\Omega \Delta t>(\cos \Omega t_2 — \cos \Omega t_1), $$ где \( \Delta t = t_2 -t_1 \).
Учитывая, что $$ \cos \alpha — \cos \beta = -2 \sin \frac 2 \sin \frac 2, $$ получаем $$ \bar \omega = <\omega>_0 + \frac <\Omega \Delta t>\sin \frac <\Omega \Delta t>2 \sin \frac <\Omega (t_1 + t_2)>2. $$ Величина $$ \frac 2 $$ есть не что иное, как середина интервала измерения. Это значение можно преобразовать к виду $$ \frac 2 = \frac 2 = t_2 — \frac 2. $$ Преобразовали выражение таким образом, чтобы этот момент времени выражался через t2, т.е. тот момент времени, когда становятся известны результаты измерения.
Тогда $$ \bar \omega = <\omega>_0 + \frac <\Omega \Delta t>\sin \frac <\Omega \Delta t>2 \sin \Omega \left( t_2 — \frac 2 \right). $$
Заметим, что если частота изменяется не по гармоническому закону, всё равно, мгновенную частоту как функцию можно разложить на гармонические составляющие и рассматривать воздействие операции усреднения на каждую составляющую по отдельности. Это возможно, поскольку операция усреднения является линейной.
Рассмотрим, как влияет интервал измерения на результат измерений. Предположим сначала, что частота сигнала изменяется достаточно медленно, а интервал измерения достаточно мал, так что $$ \frac <\Omega \Delta t>2 \ll 1, $$ а значит, $$ \sin \frac <\Omega \Delta t>2 \approx \frac <\Omega \Delta t>2 $$ и $$ \bar\omega \approx <\omega>_0 + \Delta \omega \sin \Omega \left( t_2 — \frac 2 \right). $$ То есть, если выбран достаточно малый интервал измерений, то результат измерений приближается к мгновенной частоте сигнала в момент, соответствующий середине интервала измерения (результат измерения запаздывает на \( \Delta t /2 \) относительно мгновенной частоты).
С увеличением интервала измерения уменьшается коэффициент $$ \frac <\Omega \Delta t>, $$ при этом в силу свойств тригонометрических функций, $$ \left| \sin \frac <\Omega \Delta t>2 \right| \le 1. $$ Так что, при $$ \Delta t \rightarrow \infty, \bar \omega \rightarrow <\omega>_0. $$
На основе полученных выводов можем должным образом выбрать интервал измерения.
1. Если хотим точно измерить среднюю частоту, влияние отклонений мгновенной частоты на результат необходимо минимизировать. Как было выяснено, для этого следует увеличивать интервал измерения. Предположим, что относительная погрешность метода составляет \( \varepsilon \). Тогда, вероятно, мы захотим, чтобы дополнительная погрешность, вносимая колебаниями частоты, не превышала этой величины: $$ \frac <\Omega \Delta t <\omega>_0> \lt \varepsilon, $$ откуда получаем $$ \Delta t \gt \frac <\Omega <\omega>_0 \varepsilon> $$ или $$ \Delta t \gt \frac <\pi F f_0 \varepsilon>. $$ Пример. Пусть имеем сигнал со средней частотой f0 = 1 МГц, мгновенная частота которого периодически отклоняется от среднего значения на величину \( \Delta f \) до 10 Гц; желаемое относительное отклонение результата от среднего значения \( \varepsilon \lt 10^ \). В зависимости от частоты F, с которой изменяется мгновенная частота f сигнала, выбираем интервал измерения, например: $$ F = 1 \text< Гц>: \Delta t \gt 320 \text< с>; \\ F = 50 \text< Гц>: \Delta t \gt 6.4 \text< с>; \\ F = 1 \text< кГц>: \Delta t \gt 0.32 \text< с>. $$
2. Предположим, что наоборот, требуется отследить изменения мгновенной частоты сигнала. Тогда имеет смысл выбирать малый интервал измерения. Прежде всего, чтобы обнаружить изменение частоты сигнала, которое происходит с частотой \( \Omega \), следует выбрать $$ \Delta t \lt \frac <\Omega>= \frac 1 F, $$ тогда можно быть уверенным, что измеряемые отклонения не окажутся нулевыми за счёт множителя \( \sin( \Omega \Delta t / 2) \).
А если, допустим, $$ \Delta t = \frac 1 , $$ то $$ \bar \omega = <\omega>_0 + c \Delta \omega \sin \left( t_2 — \frac 2 \right), $$ где коэффициент \( c \approx 0.64 \), т.е. измеряемое отклонение частоты от среднего значения составит не менее 60% от реального отклонения.
Если идёт речь о достижении как можно более высокой точности в измерении мгновенной частоты, то следует далее уменьшать интервал измерения. С уменьшением интервала, результат всё более приближается к мгновенной частоте, т.е. уменьшается динамическая погрешность измерения, но одновременно с этим растёт погрешность метода. Это ограничивает предельную точность измерения частоты путём измерения средней частоты сигнала. Не имеет смысла снижать абсолютную динамическую погрешность \( _2 \) до значений меньше абсолютной погрешности метода \( \Delta_1 \).
Погрешность метода (относительная и абсолютная) $$ \varepsilon = \frac 1 n = \frac 1 , \\ _1 = \varepsilon f_0 = \frac . $$
Под динамической погрешностью будем понимать разность между наибольшим действительным отклонением \( (\Delta \omega \) или \( \Delta f) \) мгновенной частоты от среднего значения и наибольшим отклонением результата измерения от истинного значения средней частоты. Для циклической частоты погрешность может быть вычислена как $$ \Delta \omega — \frac <\Omega \Delta t>\sin \frac <\Omega \Delta t>2 $$ или просто для частоты: $$ _2 = \Delta f — \frac <\pi F \Delta t>\sin(\pi F \Delta t). $$ При малых значений аргумента, синус может быть приближённо вычислен по формуле $$ \sin x \approx x — \frac 6. $$ Тогда $$ \Delta_2 \approx \Delta f — \Delta f + \frac <\pi F \Delta t>\frac <(\pi F \Delta t)^3>6, \\ \Delta_2 \approx \frac <\pi^2 \Delta f F^2 \Delta t^2>6, $$ а так как мы требуем, чтобы $$ \Delta_2 \ge \Delta_1, $$ то можем записать $$ \frac <\pi^2 \Delta f F^2 \Delta t^2>6 \ge \frac , \\ \Delta t \ge \sqrt[3] <\pi^2 \Delta f F^2 f_r>>. $$ Понятно, что интервал измерения при этом не может быть меньше периода сигнала (что следует из самого принципа измерения).
Пример. Сигнал имеет среднюю частоту f0 = 100 кГц, мгновенная частота отклоняется от среднего значения на величину \( \Delta f = 1 \text < Гц>\), причём отклонение описывается синусоидой с частотой F = 10 Гц. Требуется определить оптимальный интервал измерения (при котором погрешность метода достигает динамической погрешности измерения), если частота опорного генератора составляет fr = 24 МГц. Вычисления по приведённой выше формуле дают результат \( \Delta t \approx 0.03\text < с>\) (абсолютная погрешность метода измерения и динамическая погрешность при этом оказываются порядка 0.14 Гц).
Другим простым, но представляющим интерес примером, является измерение средней частоты сигнала, мгновенная частота которого на некотором интервале изменяется линейно. Легко показать (настолько легко, что подробно не будем на этом останавливаться), что результат будет равен мгновенной частоте в момент, соответствующий середине интервала измерения, или, что то же самое, среднему арифметическому мгновенных частот на концах интервала измерения.
Смотрите далее пример простого частотомера с хорошими характеристиками:
Частотомер на основе микроконтроллера STM32 с конвейерным измерением частоты — 2
Литература
Особенно хотелось бы отметить книгу «Сигналы, помехи, ошибки. «. Это замечательная книга, в которой хорошо раскрывается понятие мгновенной частоты; поясняется, в каких случаях уместно говорить о частоте сигнала, а когда следует переходить к рассмотрению спектра, а также подробно обсуждаются многие другие вопросы. Материал излагается довольно живо, доступно, но не упрощённо. И что приятно, книга не лишена тонкого ненавязчивого юмора.
В математических энциклопедиях можно найти определения базовых понятий (периодическая функция; почти периодическая функция; период; частота).
В энциклопедии по физике также можно найти аналогичные определения периодичности, периода, частоты и т.д.
- Финк Л. М. Сигналы, помехи, ошибки. Заметки о некоторых неожиданностях, парадоксах и заблуждениях в теории связи. М.: Радио и связь, 1984
- Математический энциклопедический словарь. /Ю. В. Прохоров. М.: Сов. энциклопедия, 1988
- Физический энциклопедический словарь. /А. В. Прохоров. М.: Сов. энциклопедия, 1983
Что такое частота Найквиста? Объясните пожалуйста простым языком)) )
Речь о частоте дискретизации сигнала?
Вот хотите Вы превратить в цифры аналоговый сигнал (музыку) , и хотите, чтоб потом можно было его воспроизвести без искажений, которые способно уловить ухо человека.
Сначала нужно ограничить спектр сигнала на уровне, например, 20 кГц — выше частоты мы все равно не слышим. Обрезаем все, что выше 20 кГц, фильтром. Так вот, теорема Котельникова-Шеннона говорит, что для полного восстановления нашего сигнала со спектром 0. 20 кГц нужна частота дискретизации 2 раза выше, или больше, но никак не меньше. Вот эта половина частоты дискретизации и есть частота Найквиста.
Сигнал должен иметь ограниченный спектр, иначе при дискретизации необрезанные высшие частоты дадут неустранимые искажения в области низких частот.
Кстати, речь идет о дискретном сигнале, а не о цифровом. чтоб цифровой сигнал ближе соответствовал дискретному, квантованному только по времени — нужно еще и разрядность повысить как можно больше.
У аудиоCD частота Найквиста 22.05 кГц — 2 кГц оставлено для области завала АЧХ фильтра. Частота дискретизации — 44,1 кГц. Разрядность — 16 бит. Чтобы снизить требования к фильтру при воспроизведении, применяют передискретизацию — оцифровывают сигнал со спектром 0. 20 кГц не с частотой 40 (44,1), а раз в несколько выше, например — 192 кГц.
Александра Профи (519) 9 лет назад
Илья Высший разум (374314) Так понятно?
Остальные ответы
Когда сигнал переводят в цифровую форму, его измеряют много раз в секунду. Допустим, максимальная частота сигнала F. Тогда, чтобы ничего из него не потерялось, нужно его измерять с частотой 2F или большей. Только при этом условии сигнал сохранится без потерь. Так вот, эта частота F и называется частотой Найквиста. А сам принцип теоремой Найквиста-Шеннона (или Котельникова) .
Похожие вопросы
Теорема Котельникова «для чайников» простыми словами
Попробуем нестандартно в сравнении с книгами по радиоэлектронике и цифровым системам связи, простыми житейскими примерами объяснить суть теоремы Котельникова. Если читатель еще не знаком с теоремой отсчётов, то рекомендуется сначала изучить ее формулировку в деловом официальном стиле. Смотрите, например, прошлую статью.
Аналоговые и дискретные процессы в природе
Абсолютное большинство процессов в природе протекают непрерывно, (изменение температуры воздуха на улице, давления, влажности, изменение скорости ветра, колебание электрического тока в проводнике, сияние Солнца). Почему все эти процессы непрерывны? Нам кажется, что время течет непрерывно, а значит в каждый момент времени должно существовать какое-то значение температуры воздуха или значение силы тока в проводнике, или значение интенсивности света Солнца. Непрерывные процессы, функции или сигналы называют аналоговыми (от слова аналог – нечто сходное, подобное чему-то, т.е. функция как модель является аналогом какому-то физическому процессу). Можно наблюдать множество непрерывных процессов в природе, например, непрерывный поток воды в источнике. Струя воды при падении вниз сужается как раз в силу поддержания непрерывности потока.
Аналоговый сигнал даже на конечном временном промежутке подразумевает набор бесконечного числа значений. Однако регистрирующие устройства, как правило фиксируют конечное число значений, поэтому мы получаем дискретные сигналы (дискретный от лат. discretus означает раздельный, состоящий из отдельных частей).
Представление непрерывного и дискретного сигналов.
Дискретные процессы также многочисленны в природе, как и аналоговые состояния. Дискретные процессы не могут находиться в каком-то промежуточном состоянии между определенными значениями. Придумаем несколько примеров из жизни:
- Из квантовой физики 1-й постулат Бора: электрон в атоме может двигаться только по определенным (можно сказать по дискретным) орбитам, находясь на которых, он не излучает и не поглощает энергию. Электроны в атоме, находясь на определенных стационарных (т.е. дискретных) орбитах, имеет вполне определённые дискретные значения энергии Е1, Е2, Е3 и т.д.
- Если вы играете на пианино, то звучащая музыка во времени представляет собой перескоки с одной дискретной ноты на другую, то есть ноты – это отдельно выбранные дискретные звуки.
- Когда мы поднимаемся по лестнице, ступня в пространстве оси высот находится только на определенной дискретной координате (ступеньке)
Поскольку человек не может оперировать с бесконечными числами и величинами, обычно все округляем до ближайших целых чисел – в результате получаем цифровые сигналы. Например, мы наносим цифровую шкалу на столбик термометра и фиксируем округленное значение температуры. Непрерывное время мы разбиваем на секунды минуты, часы – наносим цифры на циферблат часов. Все символьные и знаковые системы, созданные человечеством для обмена информацией, использует конечное число возможных элементов.
Поскольку все вычислительные информационные устройства могут работать лишь с дискретными символьными системами и с цифровыми сигналами, постоянно возникает необходимость в переходе от существующих в природе непрерывных процессов, к дискретным и цифровым. С развитием цифровой связи и цифровых устройств (микроконтроллеров, компьютеров) постоянно и повсеместно на каждом шагу выполняется аналого-цифровое преобразование сигналов, неотъемлемой частью которого является дискретизация сигналов. Но здесь важно следующее: перейти от непрерывного сигнала к дискретному дело нехитрое – здесь удачно подходит выражение «ломать не строить». По аналогии можно сказать «ломать аналоговый сигнал – не восстанавливать его», здесь все просто реализовать, но главное при этом выполнить дискретизацию правильно. Одно дело просто произвести выборку отдельных значений сигнала, но есть еще другое дело – потом надо будет по этим значениям снова восстановить исходный непрерывный сигнал. Как правильно дискретизировать сигналы говорится в теореме о дискретизации сигналов, или ее можно называть в честь автора – теоремой Котельникова.
Если не знать теорему Котельникова
Итак, мы выяснили, что как и множество процессов в природе, электрические сигналы, используемые во всей электронике и системах связи бывают аналоговые и дискретные. В цифровых системах необходимо переходить от аналоговых сигналов к дискретным, при этом переход должен быть корректным.
Наглядный пример номер раз. Давайте посмотрим на примере двух музыкальных фрагментов, что будет, если осуществлять дискретизацию сигнала некорректно.
Вот что будет при неправильной оцифровке музыки
Вот что будет при неправильной оцифровке речи
Наглядный пример № 2. На рисунке ниже представлены 7 сигналов, каждый из которых соответствует своей музыкальной ноте – До, Ре, Ми, Фа, Соль, Ля, Си. Все они оцифрованы с частотой дискретизации 1700 Гц.
Давайте послушаем, что из этого получилось.
Надеюсь, с музыкальным слухом все в порядке и вы услышали, что с последними двумя прозвучавшими нотами что-то не так. Если не знать теорему Котельникова, то будет непонятно, почему звук при дискретизации исказился. Поэтому давайте разбираться в этой теореме.
Наглядное, но нестандартное объяснение теоремы о дискретизации
Представим себе, что мы работники Animal Planet и хотим изучить траекторию движения в джунглях какой-нибудь редкой змейки из красной книги. Назовем, например, изучаемую змею Зигзагусс.
С целью исследования мест обитания змеи и ее повадок цепляем к ее хвосту GPS-датчик, который будет регистрировать ее местоположение в отдельные моменты времени.
Вопрос: как надо запрограммировать датчик, чтобы мы получили точную траекторию движения змейки, т.е. получили самый подробный график траектории движения юркой змейки со всеми ее виляниями и изгибами? Через сколько миллисекунд или секунд датчику необходимо будет записывать и посылать нам очередную координату положения в пространстве?
Допустим, наша змея Зигзагусс ползет гармонично – ее хвост совершает гармонические колебания и ее движения можно описать синусоидальными функциями.
Фото настоящего следа от змеи на песке.
Траектория движения представляет собой колебания с различными частотами. Так вот, по правилам теоремы о дискретизации, чтобы восстановить всю траекторию движения змейки, необходимо найти составляющую колебаний самой высокой частоты.
Если по дискретным точкам мы сможем восстановить составляющую колебаний самой высокой частоты, то мы сможем восстановить всю траекторию змейки. Определим периоды всех колебаний (см. рисунок ниже).
Как видно из рисунка, наименьшим периодом колебаний является период . Следовательно, необходимо подобрать частоту выборки дискретных точек именно для колебания с периодом , тогда и все остальные колебания мы сможем потом восстановить. Другими словами, в соответствии с теоремой о дискретизации (см. формулировку здесь) можно полностью восстановить данную синусоидальную функцию, если брать дискретные точки через интервал времени вдвое меньший длительности периода . Это означает, что необходимо брать точки с таким интервалом, чтобы на период колебания самой высокой частоты приходилось не менее 2-х точек.
В этом случае можно будет с высокой точностью восстановить всю непрерывную траекторию движения исследуемой змеи.
Предположим теперь, что Зигзагусс опьянилась запахом одурманивающего цветка и стала ползти негармонично, несуразно.
В этом случае для определения периода дискретизации нам необходимо самим отыскать гармонию в данной кривой функции, а она есть внутри любого сигнала всегда, что пытался в свое время доказать всем людям французский математик Жан-Батист Фурье. Также как любое тело можно разложить на множество атомов, также и полученную сложную функцию (от траектории змеи), можно разложить на множество гармонических функций. Физические тела разные, потому что они отличаются друг от друга структурой молекул. Например, мы говорим H2O – это вода, что означает: молекула воды состоит из двух атомов водорода H и одного атома кислорода O. Точно также можно сказать, что разные сигналы отличаются разным составом. Например, такой вот сигнал
состоит из двух гармонических функций (синус и косинус) с частотой 1000 Гц и одного синуса с частотой 2000 Гц (2000 Гц означает, что гармоника совершает 2 тысячи колебаний в секунду). В соответствии с условием теоремы Котельникова, о котором мы уже ранее говорили, для такого сигнала временной интервал между дискретными точками необходимо брать таким, чтобы он был меньше половины периода самой высокой частоты. В нашем случае имеется гармоника с максимальной частотой 2 тысячи колебаний в секунду (2000 Гц), значит период сигнала равен 1/2000 = 0.005 секунд и значит период между дискретными точками должен быть менее, чем 0.005/2 = 0.0025 секунды.
Чтобы определить требуемый период между дискретными точками для траектории нашей змейки, необходимо определить из каких гармонических функций она состоит, а точнее нас интересует значение частоты наивысшей гармонической функции (т.е. фиолетовой на рисунке).
Делим период фиолетовой гармоники пополам, и получаем граничное значение для периода дискретизации функции траектории одурманенной змеи. Все, задача решена, можно произвести дискретизацию данного сложного сигнала.
Знаем и соблюдаем условия теоремы Котельникова
Теперь, когда мы знаем теорему Котельникова, давайте еще раз рассмотрим задачу правильного перехода от аналоговых 7 сигналов- музыкальных нот к дискретным. Итак, у нас есть семь гармонических колебаний, с частотами
Для правильной дискретизации, чтобы не было искажений, необходимо взять частоту дискретизации не менее в два раза больше максимальной частоты сигнала. Ранее мы брали частоту 1700 Гц, но как можно посчитать, такая частота подходит для сигналов нот До – Соль (для ноты Соль требуется частота дискретизации 784*2=1568 Гц), а вот для сигналов нот Ля и Си значение 1700 Гц уже не годится.
Еще раз рассмотрим дискретизацию наших сигналов
Как видно из рисунка из-за несоблюдения условий теоремы Котельникова для сигналов Ля и Си с частотами 880 Гц и 988 Гц, через получившиеся дискретные отсчёты можно провести другие гармонические сигналы (красные функции), частоты которых меньше 1700 Гц / 2 = 850 Гц. Произошел эффект, который называют наложение спектров (в англоязычной литературе – aliasing). В рамках данной статьи «для чайников» мы не будем подробно рассматривать этот эффект, поскольку здесь уже требуются знания спектрального анализа сигналов. Этот эффект интересен тем, что объясняет условия теоремы Котельникова с позиций представления сигналов в частотной области (см. рисунок ниже). Если разобраться в этом, то теорема Котельникова и принципы восстановления сигналов станут более понятными. Описание этого эффекта можно найти почти в каждой книге по цифровой обработке сигналов.
Но сейчас новичкам в этой области главное запомнить результат несоблюдения теоремы отсчётов – восстановление сигналов по имеющимся дискретным отсчётам будет неоднозначно. Чтобы такого не происходило, необходимо чтить теорему Котельникова.
Максимальная частота среди наших 7 сигналов 988 Гц (нота Си), следовательно частота дискретизации должна быть больше, чем 2*988=1976 Гц. Важно здесь неуместно отметить, что в 1976 году был создан первый персональный компьютер – начался кустарный выпуск Apple I.
Значит надо выбрать частоту дискретизации больше значения 1976.
Вот как будут звучать семь наших сигналов при частоте дискретизации 2000 Гц.
Задачка для разминки мозгов
Нельзя сказать, что эта задачка очень простая для начинающих и ее решит любой. Новички в этой области не унывайте, если не получится (здесь нужны знания теории сигналов), ну а тот, кто решит, может собой гордиться.
С двух датчиков регистрируются сигналы
Какой должна быть минимальная частота дискретизации в АЦП по условию теоремы о дискретизации, если К – операция сложения и если К – операция умножения?
Теорема Котельникова Простым Языком
Поговорим об основном ограничении при дискретизации аналогового сигнала описываемого теоремой Котельникова, и это ограничение тесно связан с понятием частоты периодического дискретного сигнала.
p, blockquote 1,0,0,0,0 —>
p, blockquote 2,0,0,0,0 —>
Что такое частота
Частота это величина обратная периоду, и она может измеряться либо в секундах, либо в отчётах в зависимости от того говорим о непрерывном сигнале или о дискретном сигнале.
p, blockquote 3,0,0,0,0 —>
p, blockquote 4,0,0,0,0 —>
Где, f — частота, измеряется в радианах/ ед. времени или циклах / ед. времени; T — период, который измеряется в секундах или отсчетах.
- Непрерывный сигнал: Т0(секунды): (1 цикл=2π радиан)
- Дискретный сигнал: N (отсчеты): 1/N (1 цикл=2πm радиан)
p, blockquote 6,0,0,0,0 —>
Частота может измеряться в радианах в единицу времени или циклах в единицу времени. Важно отметить то, что цикл для непрерывного сигнала может быть равен 2π радиан, а цикл для дискретного сигнала может быть равен 2π умножить на m радиан, где m это целое число. Это приводит нас к понятию неоднозначности определение частоты дискретного сигнала, не будем углубляться формула давайте посмотрим на конкретном примере.
p, blockquote 7,0,0,0,0 —>
Наложение сигналов при дискретизации
Мы говорим о том, что для непрерывных сигналов две синусоиды с разными частотами не равны друг другу, но в случае двух дискретных синусоид, если частота одной отличается от другой на m*2π мы не сможем их различить.
p, blockquote 8,0,0,0,0 —>
p, blockquote 9,0,0,0,0 —>
Представьте себе обыкновенные часы (рисунок выше), мы явно видим минутную стрелку и часовую стрелку потому что это непрерывно изменяющиеся величины, но если мы будем фотографировать эти часы в моменты времени, когда минутная стрелка накладывается на часовую стрелку, мы не увидим часовой стрелки фактически происходит наложение одного дискретного сигнала на другой дискретный сигнал, то же самое происходит при дискретизации двух аналоговых сигналов.
p, blockquote 10,0,0,0,0 —>
Рассмотрим пример двух синусоид, одна синусоида изменяется медленно, другая синусоида изменяется быстро.
p, blockquote 11,1,0,0,0 —>
p, blockquote 12,0,0,0,0 —>
Мы берем дискретные отчеты этих синусоид в моменты времени 1, 2, 3, 4 и так далее, и можем наблюдать то, что форма двух дискретных сигналов абсолютно одинакова. Произошел эффект алиасинга или наложение двух сигналов при дискретизации.
p, blockquote 13,0,0,0,0 —>
Алиасинг это эффект неразличимости сигналов при их дискретизации, нам его надо избегать.
p, blockquote 14,0,0,0,0 —>
Как вы уже поняли из представленных графиков, выбранной частоты дискретизации хватает для того, чтобы описать в дискретном виде медленно изменяющуюся синусоиду, но явно не хватает для того чтобы описать быстро изменяющуюся и мы приходим к определению основного ограничения при дискретизации сигналов.
p, blockquote 15,0,0,0,0 —>
Теорема Котельникова — определение
Теорема Котельникова гласит о том, что непрерывный сигнал с ограниченным спектром можно точно восстановить по его дискретным отчетам, если они были взяты с частотой дискретизации, превышающей максимальную частоту сигнала минимум в два раза!
p, blockquote 16,0,0,0,0 —>
В виде формулы это можно описать, как частота дискретизации fs должна быть больше или равна чем 2f максимальное.
p, blockquote 17,0,0,1,0 —>
p, blockquote 18,0,0,0,0 —>
В том случае, если это условие не выполняется, мы берем дискретные отчеты слишком редко. Мы не знаем как меняется сигнал в промежутках между дискретными и конечно же теряем информацию.
p, blockquote 19,0,0,0,0 —>
p, blockquote 20,0,0,0,0 —>
В том случае, если условие выполняется между отдельными дискретными отчетами,сигнал меняется относительно медленно, и поэтому восстановления исходной формы аналогового сигнала возможно.
p, blockquote 21,0,0,0,0 —>
Эффект наложения при прослушивании звукового сигнала в matlab
p, blockquote 22,0,0,0,0 —> p, blockquote 23,0,0,0,1 —>
Для того чтобы теорема Котельникова соблюдалась всегда, достаточно постоянно брать очень большое значение частоты дискретизации. Насколько это удачное решение? На самом деле не очень, потому что мы работаем с системами передачи данных, с системами хранения данных и если мы медленно изменяющийся сигнал будем оцифровывать с огромной частотой дискретизации, то объемы данных которые мы даже думаем пропускать, обрабатывать и хранить будут сильно превышать требуемые. Что конечно же будет требовать больших вычислительных ресурсов и памяти для хранения. Впрочем принцип работы некоторых устройств как раз основан на выборе завышенных значений частоты дискретизации, одно из них это сигма-дельта АЦП аналого-цифровой преобразователь.