Вопрос задан 07.05.2019 в 15:03. Предмет Информатика. Спрашивает Семенюк Соломія.

В группе 30 человек за контрольную работу по информатике получено 15 пятёрок 6 четвёрок 8 троек и 1

двойка какое количество информации в сообщении о том что Андреев получил пятерку
0 0
Перейти к ответам

Ответы на вопрос

Внимание! Ответы на вопросы дают живые люди. Они могут содержать ошибочную информацию, заблуждения, а также ответы могут быть сгенерированы нейросетями. Будьте внимательны. Если вы уверены, что ответ неверный, нажмите кнопку "Пожаловаться" под ответом.
Отвечает Алискеров Рамазан.
I=log(1/(15/30))=log(2)2=1 бит
0 0
Отвечает нейросеть ChatGpt. Будьте внимательны, ответы нейросети могут содержать ошибочные или выдуманные данные.

Для того, чтобы ответить на этот вопрос, нам нужно определить количество информации, содержащееся в сообщении о том, что Андреев получил пятерку. Для этого мы можем использовать формулу Хартли или хартлиевское количество информации, которое является логарифмической мерой информации. По этой формуле, количество информации в сообщении равно:

$$I = \log_2 N$$

где $N$ — количество символов в используемом алфавите (мощность алфавита), а $I$ — количество информации в сообщении в битах.

В нашем случае, алфавит состоит из пяти символов: 2, 3, 4, 5, 6, которые обозначают оценки за контрольную работу. Следовательно, мощность алфавита $N = 5$. Тогда, по формуле Хартли, количество информации в сообщении о том, что Андреев получил пятерку равно:

$$I = \log_2 5 \approx 2.32 \text{ бита}$$

Это означает, что для передачи этого сообщения нам нужно минимум 2.32 бита информации. Однако, если мы знаем, что в группе 30 человек, то мы можем уменьшить количество информации, используя формулу Шеннона, которая учитывает вероятность появления каждого символа в алфавите. По этой формуле, количество информации в сообщении равно:

$$I = -\sum_{i=1}^N P_i \log_2 P_i$$

где $P_i$ — вероятность появления $i$-го символа в алфавите. В нашем случае, вероятности появления разных оценок в группе равны:

$$P_2 = \frac{1}{30} \approx 0.033$$ $$P_3 = \frac{8}{30} \approx 0.267$$ $$P_4 = \frac{6}{30} = 0.2$$ $$P_5 = \frac{15}{30} = 0.5$$ $$P_6 = 0$$

Тогда, по формуле Шеннона, количество информации в сообщении о том, что Андреев получил пятерку равно:

$$I = -0.5 \log_2 0.5 \approx 1 \text{ бит}$$

Это означает, что для передачи этого сообщения нам нужно минимум 1 бит информации, если мы учитываем вероятность появления каждой оценки в группе. Таким образом, мы можем сказать, что количество информации в сообщении о том, что Андреев получил пятерку зависит от того, какой алфавит мы используем и какие вероятности мы присваиваем его символам.

0 0

Топ вопросов за вчера в категории Информатика

Последние заданные вопросы в категории Информатика

Задать вопрос