Разработка системы связи для передачи дискретных сообщений

Автор работы: Пользователь скрыл имя, 16 Октября 2014 в 21:06, курсовая работа

Краткое описание

Целью данной курсовой работы является разработка системы связи для передачи дискретных сообщений. Дискретные сигналы возникают в тех случаях, когда источник сообщений выдает информацию в фиксированные моменты времени. Такие сигналы приобрели особое значение в последние десятилетия под влиянием совершенствования техники связи и развития способов обработки информации быстродействующими вычислительными устройствами. Из-за наличия в канале связи помех, прием сообщений становится ненадежным, и мы можем получить неверную (ложную) информацию.

Содержание

1. Введение………………………………………………………..……………….…3
2. Рабочее задание.................................................................................4
3. Обобщённая структурная схема системы связи.............................5
4. Описание принципов кодирования источника при передаче дискретных сообщений..............................................................................................6

5. Расчёт характеристик системы согласно заданию ......................10

6.Описание процесса принятия приёмником решения при приёме сигнала........... 13

7. Расчёт характеристик системы согласно заданию...................... 15

8. Расчёт согласованного фильтра ....................................................22

9. Расчёт характеристик системы согласно заданию ......................25

10. Структурная схема связи согласно пункту .................................31
11. Описание принципов помехоустойчивого кодирования при передаче дискретных сообщений. Построение (7,4) - кода Хемминга........32
12. Описание процессов декодирования последовательности, содержащей двукратную ошибку, согласно пункту .........................................37

Прикрепленные файлы: 1 файл

тэс razrabotka_sistemy_svyazi_dlya_peredachi_diskretnyh_soobshen.doc

— 995.00 Кб (Скачать документ)

 

Таблица 3. Кодовые комбинации по методу Шеннона-Фано.

Построенное дерево кодирования кода Шеннона-Фано на рис. 2.

4.3. Кодирование построенным  кодом фамилии и имени исполнителя курсовой работы.

Закодируем фразу: Саханов Абылайхан. Отсутствующие в алфавите источника буквы пропускаются:  С а а н о в А б а а н.

Получившийся код:

011  11100  1011  0100  1011  11110  11111  11110  100  0100

Первым двум буквам сообщения соответствует код: 01111100

 

 

 

Рис. 2. Дерево кодирования кода Шеннона-Фано.

 

Изобразим качественные временные диаграммы сигналов во всех промежуточных точках структурной схемы (рис.3). Возьмём фрагмент сигнала, отвечающего двум первым буквам сообщения «е» - 011 и «б» - 11100.

 

Рис. 3. а)  Фрагмент сигнала на входе модулятора.

 

На вход модулятора поступает последовательность кодовых символов в виде прямоугольных радиоимпульсов. Наличие импульса – «1», его отсутствие – «0».

 

 

Рис. 3. б)  Фрагмент сигнала на выходе модулятора

 

 

 

 

Последовательность импульсов непригодна для передачи по линии связи, поэтому она поступает на модулятор, где используется для модуляции другого колебания s(t) - переносчика. Вид модуляции – амплитудная телеграфия с пассивной паузой. Модулированное колебание U(t) поступает в линию связи.

 

Рис. 3. в) Фрагмент сигнала на входе демодулятора.

 

В линии связи сигнал взаимодействует с помехой, поэтому на вход демодулятора поступает их сумма. Также сигнал в линии связи подвергается искажениям, но мы этого не рассматриваем для простоты. Таким образом, на входе демодулятора присутствуют случайные колебания двух видов – реализация шума или сумма детерминированного сигнала и шума, что соответствует двум гипотезам.

 

Рис. 3. г) Фрагмент сигнала на выходе демодулятора.

Задача демодулятора – принять на основе наблюдения решение о том, какая именно гипотеза выполняется на данном интервале, и на основании этого сформировать последовательность двоичных символов, которая затем подвергается декодированию. Эта последовательность может отличаться от исходной bц(t). Для уменьшения вероятности ошибки мы и будем использовать кодирование.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

5. Расчёт характеристик системы согласно заданию №2:

 

   Расчет энтропии и избыточности источника:

 

Энтропия - среднее количество информации, приходящееся на один символ, которое определяется как математическое ожидание. Энтропия характеризует производительность дискретного источника. Рассматривая источник без памяти, запишем энтропию дискретного источника А в виде:

  

где K – количество символов в алфавите, p(αk) – вероятность k-того символа.

Основные свойства энтропии:

  1. Энтропия любого источника неотрицательна . Это следует из того, что вероятность любого события неотрицательна и не превосходит единицы. Равенство нулю энтропии источника имеет место в том случае, если один из символов имеет вероятность 1, а остальные – 0.
  2. При заданном объеме алфавита энтропия максимальна, если все символы равновероятны .

Значение энтропии равно . В частности, при энтропия максимальна при и равна 1 биту. Таким образом, 1 бит – это количество информации, доставляемое одним из двух равновероятных символов, вырабатываемых источником без памяти.

Реальные источники редко обладают максимальной энтропией, поэтому их принято характеризовать так называемой избыточностью, определяемой выражением:

Рассчитаем энтропию источника:

В нашем случае    =

=

 

= 3.707 (бит)

Следовательно, энтропия источника: бит.

Максимальная энтропия для данного источника:

 

                 
бит.

 

 

 

 

 

Найдём избыточность источника:

    

Средняя длина кодовой комбинации:

Для построенного кода средняя длина кодовой комбинации:

Теорема Шеннона о кодировании в отсутствие шумов. Среднюю длину кодовых слов для передачи символов источника при помощи кода с основанием можно как угодно приблизить к величине .

Смысл теоремы состоит в том, что она определяет нижнюю границу длины кодовых слов и устанавливает принципиальную возможность достичь этой границы, однако она не указывает способов достижения.

Согласно теореме Шеннона при оптимальном кодировании можно достичь средней длины:

μmin=H(A)/log22= H(A)=3.707 (символа)

То есть, μср≠μmin. Таким образом, построенный код не является оптимальным, потому что на каждом шаге процедуры построения кода не удавалось разделить символы на группы с равными вероятностями.

 

Расчет энтропии, избыточности кода, вероятности двоичных символов, передаваемых по каналу, скорость передачи информации:

 

Определим вероятность появления определенного символа в кодовой комбинации (пусть это будет символ 1). Она находится, как сумма количеств единиц во всех кодовых словах с весами, равными вероятностям кодовых слов, отнесенная к средней длине кодового слова:

 

 

В таком случае, вероятность появления символа 0:       - априорная вероятность 0.

                          

Определим энтропию кода :

  Т.к. алфавит кода состоит из двух символов 0 и 1, поэтому энтропия кода равна:

 

 

 

 

 

Рассчитаем избыточность кода:        

Только будем учитывать, что при передаче бинарного кода, его максимальная энтропия: Нк мах=1

Таким образом, получим: 

Скорость передачи информации по каналу без помех: 

Поскольку НК =0.999 (бит) и τ = 0.9 (мкс), получаем:

бит/сек.

или

бит/сек.

где τ – длительность посылки.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

6.Описание процесса принятия приёмником решения при приёме сигнала.

Пусть при передаче дискретных сообщений используются реализации сигнала Si(t), соответствующие кодовым символам. В течение интервала времени от 0 до Т на вход приемного устройства поступает некоторое колебание, которое вследствие искажений и помех (x(t)) в канале не совпадает в точности ни с одним из передаваемых сигналов. Следовательно, в этом случае приемное устройство должно выбрать одну из n возможных взаимоисключающих гипотез. Решение о том, какой символ был передан на входе, принимается в демодуляторе. В случае, когда код бинарный демодулятор решает: был сигнал на входе или его не было («1» и «0» соответственно).

  Для выполнения данной задачи устанавливается порог: если сигнал превышает установленный пороговый уровень, то передана «1» (сумма сигнала с шумом), если порогового уровня - «0» (только шум). Этот алгоритм легко реализуется в  современной электронике с помощью микросхем - компараторов, сравнивающих два сигнала, один из которых поступает из линии, а другой является эталонным, он и  играет роль порога.


В качестве помехи – стационарный квазибелый гауссовский шум с нулевым средним, известной дисперсией и  спектральной плотностью мощности N0/2, постоянной в полосе частот, в которой сосредоточено 99% энергии сигнала, и равной 0 вне этой полосы.

Мы будем использовать способ приема, заключающийся во взятии однократного (мгновенного) значения наблюдаемого процесса z(t) в некоторый момент времени t0 и сравнивании его с порогом yп.

Точно зная сигнал, следует выбрать в качестве t0 такой момент, когда сигнал принимает максимальное значение. Но шум в это время может принять отрицательное значение, так что сумма сигнала с шумом может оказаться ниже порога (ошибка второго рода – пропуск сигнала). При отсутствии сигнала шумовая реализация может превысить порог (ошибка первого рода – ложная тревога).

Чтобы найти порог и вероятности ошибок первого и второго рода, необходимо рассмотреть условные плотности распределения вероятностей шума w(y|H0) и суммы сигнала и шума w(y|H1) в момент времени t0.

Критерий минимума суммарной условной вероятности ошибки.

Для получения минимума суммарной условной вероятности ошибки нужно выбрать порог, равный точке пересечения плотностей.

Тогда решение принимается в пользу той гипотезы, для которой значение условной плотности вероятности выше, то есть более правдоподобной гипотезы.

Отношение правдоподобия для критерия минимума суммарной условной вероятности ошибки:

Λ=

> (<)  1

Для того, чтобы вероятность ошибки была как можно меньше, необходимо установить оптимальный порог.

 

 

При передаче дискретных сообщений в качестве критерия обычно принимают среднюю вероятность ошибки приёма одного элемента двоичной последовательности. Этот критерий называется критерием идеального наблюдателя (Котельникова), согласно которому порог выбирается так, чтобы обеспечить минимум средней вероятности ошибки:

рош = р0р01+р1р10,

где р0 – априорная вероятность гипотезы H0 (сигнала нет),

р1 – априорная вероятность гипотезы H1 (сигнал есть).

Отношение правдоподобия для критерия идеального наблюдателя:

Λ=

> (<) 

Априорные вероятности гипотез – это вероятности присутствия в кодовой последовательности нулей и единиц соответственно.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

7. Расчёт характеристик системы согласно заданию №3.

7.1. Когерентный прием.

Когерентный прием – прием сигнала при условии, что форма сигнала на интервале наблюдения точно известна, неизвестен лишь сам факт наличия или отсутствия сигнала в наблюдаемом колебании. (Эта ситуация наиболее близка к реальности в кабельных линиях связи, где условия распространения сигналов известны и практически неизменны.)

Если в линии только шум с нулевым средним (гипотеза Н0), то на выходе канала связи есть сигнал с Гауссовой плотностью распределения:

, [1/В]

Если в линии сумма сигнала и шума (гипотеза Н1), то на выходе канала связи есть сигнал  с Гауссовой плотностью распределения:

, [1/В]

Вычислим плотности распределения вероятностей мгновенных значений колебания на входе демодулятора при приеме посылки и паузы:

 

 

Рис.5. Плотности распределения вероятностей при когерентном приёме: сплошная линия – смесь сигнала и шума, пунктир – шум.

 

7.1.1. Выбор оптимального  по критерию идеального наблюдателя порога для принятия решения о принимаемом символе.

 

Для определения оптимального по критерию идеального наблюдателя порога высчитаем условные плотности распределения вероятностей, умноженные на априорные вероятности гипотез H0 и H1.

p0=0,494

p1=0,506

 

, [1/В]

, [1/В]

Вычислим плотности распределения вероятностей при когерентном приёме на входе демодулятора в отсутствии сигнала и при наличии сигнала, результат представим в виде графика:

 

Рис.5. Выбор порогового значения yП при когерентном приёме.

 

Оптимальный порог по критерию идеального наблюдателя для принятия решения о принимаемом символе найдём как абсциссу пересечения условных плотностей распределения вероятностей, умноженных на априорные вероятности гипотез.

С помощью Mathcad найдём yП:

 

Т.е. yП = 1.4 В

 

7.1.2. Определение условных  вероятностей ошибок первого  и второго рода и средней  вероятности ошибки.

Вероятности ошибок первого и второго рода определяются как площади фигур, ограниченных осью у, вертикальной прямой, проходящей через точку ylim на оси абсцисс и графиком плотности W0p(y) и W1p(y) соответственно.

Условная вероятность ошибки первого рода - ложной тревоги (передавалась единица, а принят – ноль):

Условная вероятность ошибки второго рода - пропуск сигнала (передался ноль, а принята единица):

 

 

Рис. 6. Определение условных вероятностей ошибок первого и второго рода при когерентном приеме.

 

Таким образом, средняя вероятность ошибки:

где p01 – вероятность «1» при передачи «0»; p10 – вероятность «0» при передачи «1»

Информация о работе Разработка системы связи для передачи дискретных сообщений