Справка
x
Поиск
Закладки
Озвучить книгу
Изменить режим чтения
Изменить размер шрифта
Оглавление
Для озвучивания и цитирования книги перейдите в режим постраничного просмотра.
Теория информации. Курс лекций
2. Энтропия вероятностной схемы
Поставить закладку
2.1. Энтропия, как мера степени неопределенности физической системы
Для продолжения работы требуется
Registration
Предыдущая страница
Следующая страница
Table of contents
Предисловие
1. Введение в теорию информации
+
2. Энтропия вероятностной схемы
-
2.1. Энтропия, как мера степени неопределенности физической системы
2.2. Единицы измерения энтропии
2.3. Основные свойства энтропии простой физической системы
2.4. Энтропия и математическое ожидание
2.5. Условная энтропия и энтропия объединения
Контрольные вопросы к главам 1 и 2
3. Основные теоремы Шеннона о характеризации источников информации
+
4. Статистические модели каналов связи
+
5. Оптимальное кодирование
+
6. Обнаружение и исправление ошибок в сообщениях. Понятие об идее коррекции ошибок
7. Линейное кодирование
+
8. Циклические коды
+
9. Построение и декодирование конкретных циклических кодов
+
10. Обнаружение и исправление ошибок при передаче и обработке информации на стандартной аппаратуре
11. Сжатие информации
+
12. Структурное кодирование
+
Примерные вопросы к экзамену по дисциплине "Теория информации"
Библиография
Данный блок поддерживает скрол*