Вопрос задан 01.07.2023 в 05:34. Предмет Другие предметы. Спрашивает Галиуллина Ляйсан.

Вычеслить энтропию для источника, если вероятности появления символов равны:p1 = 1/10. p2=9/10

Помогите пожалуйста, срочно​
0 0
Перейти к ответам

Ответы на вопрос

Внимание! Ответы на вопросы дают живые люди. Они могут содержать ошибочную информацию, заблуждения, а также ответы могут быть сгенерированы нейросетями. Будьте внимательны. Если вы уверены, что ответ неверный, нажмите кнопку "Пожаловаться" под ответом.
Отвечает Гладкова Валерия.

Ответ:

хмммммммммммммммм ок

0 0
Отвечает нейросеть ChatGpt. Будьте внимательны, ответы нейросети могут содержать ошибочные или выдуманные данные.

Энтропия источника информации можно вычислить с использованием формулы Шеннона:

H = -Σ(pi * log2(pi))

где:

  • H - энтропия источника,
  • pi - вероятность появления символа i.

В данном случае у нас есть два символа с вероятностями: p1 = 1/10 p2 = 9/10

Теперь вычислим энтропию:

H = -[(1/10) * log2(1/10) + (9/10) * log2(9/10)]

H = -[(1/10) * (-3.32193) + (9/10) * (-0.152) ]

H = -[-0.332193 - 0.1368]

H = 0.468993 бит

Энтропия этого источника информации равна приблизительно 0.469 бит.

0 0

Похожие вопросы

Топ вопросов за вчера в категории Другие предметы

Последние заданные вопросы в категории Другие предметы

Задать вопрос