ruotvet.ru
Рефераты и Курсовые

В нашей базе ответы на вопросы по 100 предметам различных специальностей. Это более 80 000 ответов на вопросы, которые ежегодно проходят студенты в системе тестирования i-exam и i-fgos



Статистика
Вопросов: 87 307
Предметов: 100

Поиск правильных ответов


Содержание тестового вопроса

Энтропия в теории информации представляет собой …

+

 меру неопределенности состояния системы
 

 множество исходов эксперимента
 

 последовательность символов некоторого алфавита, предназначенную для передачи
 

 физический процесс, несущий сообщение о каком-либо событии, состоянии объекта наблюдения

Решение:
Энтропия в теории информации – мера хаотичности информации или мера внутренней неупорядоченности информации, связана с вероятностью появления тех или иных символов при передаче сообщений.
Впервые понятия «энтропия» и «информация» связал Клод Шеннон в 1948 г. Принято считать, что любая система стремится к состоянию равновесия, то есть растет энтропия системы. Другими словами, энтропия максимальна в опытах, где все исходы равновероятны
. Однако второе начало термодинамики (закон сохранения энтропии и информации) требует компенсировать рост энтропии. Информация и является средством компенсации, так как при получении информации уменьшается неопределенность, то есть энтропия системы.