Топ-100

Теория информации и кодирования

Оставьте заявку (контакты ниже),

Мы поможем с тестовыми заданиями.

Тульский государственный университет (ТулГУ)

(решение и ответы по тесту  200 руб )

ВОПРОСЫ по предмету

Теория информации и кодирования

Примеры тестовых вопросов . (Сдача теста по предмету -200р)

Вопросы тестирования по предмету  - Ответим за вас, и решим тесты по другим предметам Тулгу  

 • Возможен двоичный код с параметрами (n,k,d)=.... (Здесь d - кодовое расстояние). 

• Канал связи описан следующей канальной матрицей: 

• Найти, чему равны информационные потери при передаче сообщения из 1000 символов алфавита, если вероятности появления символов источника сообщений равны 0.7, 0.2 и 0.1. 

• Определить граф, соответствующий автомату: 

• Пусть имеется алфавит символов и их вероятности, с которыми они встречаются в тексте. Закодировать сообщение «вилка» методом Шеннона-Фано. 

• В чем заключается основная трудность эффективного кодирования? 

• Определить минимальное кодовое расстояние "d" для бинарного кода исправляющего 9 ошибок. 

• Что является результатом работы арифметического кодера? 

• Пусть имеется алфавит символов и их вероятности, с которыми они встречаются в тексте. Построить код Хаффмана для сообщения A B C D. 

• В чем заключается основная особенность префиксных кодов? 

• Имеются два источника информации, алфавиты и распределения вероятностей которых заданы матрицами 

 • Определить, какой источник дает большее количество информации, если p1 = p2, q1 = q2 = q3. 

• Канал связи описан следующей канальной матрицей: 

•  Найти, чему равно количество полученной информации при передаче сообщения из 1000 символов алфавита, если вероятности появления символов источника сообщений равны 0.7, 0.2 и 0.1. 

• На вход приемного устройства воздействует колебание y(t) = x(t) + n(t), где сигнал x(t) и помеха y(t) – независимые гауссовские случайные процессы с нулевыми математическими ожиданиями и дисперсиями, равными соответственно σx2 и σn2. Определить количество взаимной информации I(x,y), которое содержится в каком-либо значении принятого колебания y(t0) о значении сигнала x(t0). В расчетах принять σx2 = 1, σn2 = 2, y(t0) = 5, n(t0) = 1. 

• Определить пропускную способность двоичного симметричного канала, способного передавать 200Kb/s. Причем каждый из символов искажается с вероятностью p=1/8. 

• Записать шестнадцатеричное сообщение "ab3c" в двоичном виде. 

• Дана матрица:  Определить энтропию H(X,Y). 

• Определить места ошибок по полиному локаторов S(x)=1+2x+6x2 над GF(8). • Сообщение X с символами x1, x2, x3, x4, x5 передается по дискретному двоичному каналу с вероятностями p(x1) = 0.1; p(x2) = 0.1; p(x3) = 0.4; p(x4) = 0.3; p(x5) = 0.1. Полоса пропускания канала обеспечивает возможность передачи двоичных символов длительностью 10-4 секунды. Какой способ кодирования наиболее подходит для указанного канала. • Определите случайную величину с максимальной энтропией: 

• Осуществляется ли на этапе спектрального преобразования в алгоритме JPEG потеря информации? 

• Определить позиции (L1,L2) и значения (E1,E2) ошибок кода RSC[7,3] над GF(8) по вектору синдромов (S1,S2,S3,S4)=(4,4,5,2) • Определить значения проверочных символов (e1,e2) для информационного сообщения (2,0,1,7,5) RSC[7,5] над GF(8) при b=0. 

• Определить степени примитивных полиномов, которые необходимо использовать для построения полиномиального кода исправляющего 2-кратные ошибки в информационной последовательности длиной 4 бита. 

• Какой примитивный полином необходимо использовать для кодирования сообщения "D" кодом, исправляющим 1-кратную ошибку? 

• Записать в 16-ричном виде двоичную последовательность, соответствующую полиному p(x)=x^7 +x^6 +x^3 +x^1 +x^0. • Закодировать сообщение методом Шенно-Фано «РоссийскаяСистемаВысшегоТехническогоОбразования». 

• Осуществляется ли на этапе спектрального преобразования в алгоритме JPEG сжатие информации? 

• Для заданной канальной матрицы p(y|x) определить структуру канала информации: 

• Сколько различных символов можно закодировать с помощью двоичных слов, состоящих из 7 символов? 

• Определить место ошибки БЧХ кода [7,4] в GF(8): (1,0,1,0,1,1,1). 

• Определить максимально возможную скорость передачи информации по каналу связи с частотой 10MHz, если отношение сигнал-шум S/N=127. 

• Канал связи описан следующей канальной матрицей: 

• Найти среднее количество информации, которое переносится одним символом сообщения, если вероятности появления символов источника сообщений равны 0.7, 0.2 и 0.1. 

• Сколько информационных бит имеет кодовая комбинация Хэмминга 110101010111? 

• Определить количество информации и энтропию сообщения из 5 букв, если число букв в алфавите равно 32 и все сообщения равновероятны. 

• Используя статистические данные частоты появления букв русского языка из таблицы, записать кодом Шеннона-Фано фразу «теория информации» • Исправить ошибку совершенного кода [9,7] над GF(8): (3,4,5,6,7,6,5,2,2). 

• Какое максимальное количество бит потребуется для кодирования целых положительных чисел, меньших 51? 

• Для заданного канала информации определить канальную матрицу. 

 • Принимаемый сигнал может иметь амплитуду A1 (событие x1) или A2 (событие x2), а также сдвиг фаз φ1 (событие y1) или ?2 (событие y2). Вероятности совместных событий имеют следующие значения p(x1, y1) = 0.73; p(x1, y2) = 0.21; p(x2, y1) = 0.02; p(x2, y2) = 0.04. Вычислить количество информации, получаемой о фазовом сдвиге сигнала, если станет известной его амплитуда. • Какое из перечисленных свойств энтропии некорректно? 

• Определить количество контрольных бит кода Хэмминга для информационного сообщения длиной 241 бит. 

• Пусть имеется алфавит символов и их вероятности, с которыми они встречаются в тексте. Закодировать сообщение «лиса» методом Шеннона-Фано. 

• Используя примитивный полином 111101 раскодировать сообщение • 011 1011 0110 1110 10111, исправив 1-кратную ошибку. 

• Найти наибольший общий делитель чисел 66 и 42. 

• Определить пропускную способность 6-ичного симметричного канала, способного передавать 100 символов в секунду. Причем каждый из символов искажается с вероятностью p=1/6. 

• Построить турбокод для информационной последовательности 0101. 

• На вход приемного устройства воздействует колебание y(t) = x(t) + n(t), где сигнал x(t) и помеха y(t) – независимые гауссовские случайные процессы с нулевыми математическими ожиданиями и дисперсиями, равными соответственно σx2=1 и σn2=2. Найти полную среднюю взаимную информацию I(X,Y). 

• Определить полную энтропию системы X, состояние которой имеет экспоненциальное распределение. • Исправить ошибки и выделить информационное сообщение из последовательности (d253)/h полученной сверточным кодом. 

• Определить проверочные биты для кода Хэмминга информационной последовательности "ce". 

• Считая, что каждый символ кодируется одним байтом, определите, чему равен информационный объем слова ПАТРОН. 

• Имеются два источника информации, алфавиты и распределения вероятностей которых заданы матрицами 

 • Определить, какой источник дает большее количество информации, если p1 = q1, p2 = q2+q3. • Дана матрица: 

• Определить взаимную информацию величин X и Y: I(X, Y). 

• Найти порядок примитивного полинома 5 степени в поле GF(2). 

• Найти порядок полинома 110011 в поле GF(2). 

• Выберите код, который не реализует сжатие информации? 

• Локализовать и исправить ошибку кода Хэмминга "abc". 

• Построить код Хэмминга для кодовой комбинации 0101. Контрольные разряды кода должны располагаться в указанных позициях С= _ _ 0 _ 1 0 1. 

• Чему равно количество информации, при получении сообщения о поломке одного из 32 компьютеров компьютерного зала? 

• Определить контрольные биты [b0,b1,b2] для кода Хэмминга информационной последовательности [a1,a2,a3,a4]=[0110]. 

Решаем, сдаем  и  отвечаем на тесты Тульского Государственного  Университета.