Теория Практикум Контроль знаний Об авторе  



Тест 3

3.1 Значение энтропии НЕ зависит:

а) от числа аргументов ;

б) от порядка аргументов ;

в) от достоверности одного из аргументов ;

г) от равенств нулю одного из аргументов .

3.2 Взаимосвязь дискретных сигналов, вырабатываемых источником коррерированных сигналов, характеризуется:

а) совместной вероятностью наступления двух событий ;

б) условной вероятностью ;

в) вероятностью того, что после появления символа , будет следовать символ ;

г) пунктами «б» и «в».

3.3 Выражение  определяет:

а) энтропию источника коррерированных сигналов;

б) энтропию двух параллельно работающих взаимосвязанных источников;

в) энтропию принятого значения сигнала по каналу связи при наличии помех.

3.4 Количество информации, содержащейся в источнике коррерированных сигналов, определяется выражением  и обусловлено тем, что:

а) в каждый момент отсчета доставляется одно и то же  количество информации, равное ;

б) энтропии  источника для различных моментов отсчета одинаковы;

в) принятый символ  предопределяет энтропию на следующем моменте отсчета.

3.5 Взаимосвязь символов параллельно работающих взаимосвязанных источников характеризуется:

а) совместной  вероятностью ;

б) условной вероятностью ;

в) вероятностью того, что появление на выходе первого источника символа   предопределяет с вероятностью  появление символа   на выходе второго источника.

3.6 Выражение  определяет:

а) совместную энтропию двух параллельно работающих взаимосвязанных источников;

б) совместную энтропию двух параллельно работающих источников;

в) энтропию источника коррелированных сигналов;

3.7 Количество информации, определяемое из выражения , доставляется за  отсчетов:

а) источником коррелированных символов  и ;

б) двумя параллельно работающими взаимосвязанными источниками;

в) сигналом, полученным по каналу связи при наличии помех.

3.8 Суммарная энтропия  определяется одним из выражений:

а) ;

б) ;

в) .

3.9 Зависимость между энтропиями  и  определяется одним из выражений:

а) ;

б) ;

в) .

3.10 Зависимость между энтропиями  и  определяется одним из выражений:

а) ;

б) ;

в) .

3.11 Укажите справедливое неравенство:

а) ;

б) ;

в) ;

3.12 Укажите справедливое неравенство:

а) ;

б) ;

в) .

3.13 Неопределенность принятого сигнала  по каналу связи с шумами относительно переданного  будет определяться энтропией:

а) ;

б) ;

в) ;

3.14 Количество информации, полученное по каналу связи с шумами за  отсчетов определяется одним из выражений:

а) ;

б) ;

в) .

3.15 Выделите из приведенных ниже фундаментальную формулу в теории информации:

а) ;

б) ;

в) .

3.16 Сигнал формируется в виде двоичного кода с вероятностью появления символов 1 и 0, равными соответственно 0,6 и 0,4. Появление любого из символов взаимосвязаны условными вероятностями: ; ; ; . Условная энтропия, когда после единицы будет «0» будет определяться одним из выражений:

а) ;

б) ;

в) .

3.17 Система стабилизации платформы имеет два дискретных датчика, измеряющих углы во взаимно перпендикулярных плоскостях и передающих сигналы  и  на вычислительное устройство. Совместная энтропия сигналов  и  определяется:

а) ;

б) ;

в) .

3.18 Система стабилизации платформы имеет два дискретных датчика, измеряющих углы во взаимно перпендикулярных плоскостях и передающих сигналы   и  на вычислительное устройство. Условная энтропия при совместной работе датчиков определяется:

а) ;

б) ;

в) .

 

 

Теория | Практикум | Контроль знаний | Об авторе