Общая теория связи Занятие 2. Преобразование сообщений

Скачать презентацию Общая теория связи Занятие 2.  Преобразование сообщений Скачать презентацию Общая теория связи Занятие 2. Преобразование сообщений

ots_(sokr_ch2).ppt

  • Размер: 1.3 Мб
  • Автор:
  • Количество слайдов: 25

Описание презентации Общая теория связи Занятие 2. Преобразование сообщений по слайдам

Общая теория связи Занятие 2.  Преобразование сообщений в СПИ. Виды модуляции. Цифровое представлениеОбщая теория связи Занятие 2. Преобразование сообщений в СПИ. Виды модуляции. Цифровое представление сообщений. Основы теории передачи и кодирования.

2 Обобщённая структурная схема системы электросвязи – последовательность преобразования сигналов 2 Обобщённая структурная схема системы электросвязи – последовательность преобразования сигналов

3 Виды модуляции сигналов • амплитудная  модуляция: A ( t )  =3 Виды модуляции сигналов • амплитудная модуляция: A ( t ) = A 0 + Δ A ( t ) = A 0 + asc ( t ) • частотная модуляция: ω ( t ) = ω 0 + Δω ( t ) = ω0 + asc ( t ) • фазовая модуляция: ϕ ( t ) = ϕ 0 + Δϕ ( t ) = ϕ 0 + asc ( t )

4 Обобщённая схема модулятора 4 Обобщённая схема модулятора

5 Принцип амплитудной модуляции m АМ  = Δ A / A 0 S5 Принцип амплитудной модуляции m АМ = Δ A / A 0 S АМ (s c , t) = A 0 [ 1+ m АМ s c (t) ] cos( ω 0 t + ϕ 0 ).

6 Спектр АМ-сигнала 6 Спектр АМ-сигнала

7 Балансная модуляция 7 Балансная модуляция

8 ОБП-модуляция 8 ОБП-модуляция

9 Детектирование АМ Амплитудный детектор Синхронный детектор 9 Детектирование АМ Амплитудный детектор Синхронный детектор

10 Фазовая модуляция 10 Фазовая модуляция

11 Частотная модуляция 11 Частотная модуляция

12 Прямые методы ЧМ и ФМ 12 Прямые методы ЧМ и ФМ

13 Косвенные методы ФМ и ЧМ 13 Косвенные методы ФМ и ЧМ

14 Детектирование ФМ Разновидность синхронного детектора 14 Детектирование ФМ Разновидность синхронного детектора

15 Примеры • Спектры модулированных сигналов. 15 Примеры • Спектры модулированных сигналов.

16 Основы теории информации Методы количественного определения (К. Шеннон, 1948) • количество информации должно16 Основы теории информации Методы количественного определения (К. Шеннон, 1948) • количество информации должно быть аддитивной мерой; • количество информации о достоверном событии равно нулю; • количество информации не должно зависеть от содержания.

17 Энтропия 1. Энтропия неотрицательна:  H ( A ) = 0;  p17 Энтропия 1. Энтропия неотрицательна: H ( A ) = 0; p ( a i ) = 1; p ( a j ) = 0. 2. Энтропия аддитивна, т. е. Если , то H = n. H ( A ). 3. Если в ансамбле K = m n различных сообщений, то H ( A ) ≤ log K.

18 Энтропия источника Число комбинаций букв M = m N Русский алфавит:  log18 Энтропия источника Число комбинаций букв M = m N Русский алфавит: log 32 =

19 Вероятности русских букв 19 Вероятности русских букв

20 Избыточность источника Характеристика, показывающая количественное превышение числа символов в сообщении над минимально необходимым20 Избыточность источника Характеристика, показывающая количественное превышение числа символов в сообщении над минимально необходимым для передачи содержания Коэффициент избыточности

21 Производительность источника • количество информации, выдаваемое источником в среднем за единицу времени (одну21 Производительность источника • количество информации, выдаваемое источником в среднем за единицу времени (одну секунду) его непрерывной работы

22 Пропускная способность канала Пропускной способностью ( C’,  бит/символ ) канала, рассчитанной на22 Пропускная способность канала Пропускной способностью ( C’, бит/символ ) канала, рассчитанной на один входной символ, называется максимальное количество информации, которое может быть передано по каналу. Используют также пропускную способность в единицу времени C = 1 / T * C’ , бит/с, или просто пропускную способность

23 Пропускная способность дискретного канала 23 Пропускная способность дискретного канала

24 Прямая и обратная теоремы кодирования Прямая теорема кодирования:  • для любого однозначно24 Прямая и обратная теоремы кодирования Прямая теорема кодирования: • для любого однозначно декодируемого кода среднее число символов в двоичном кодовом слове всегда не меньше энтропии источника сообщений n СР ≥ H ( X ), и существует однозначно декодируемый код, для которого выполняется неравенство n СР < H ( X )+1. Обратная теорема кодирования: • невозможно построить однозначно декодируемый код, для которого выполнялось бы неравенство n СР < H ( X ).

25 Задание:  • Проработать раздел Основы теории кодирования дискретных сообщений  • Проработать25 Задание: • Проработать раздел Основы теории кодирования дискретных сообщений • Проработать разделы Основы оптимального приёма дискретных и непрерывных сообщений Самостоятельно!