Для решения задачи воспользуемся концепцией количества информации по Шеннону. Количество информации в сообщении зависит от вероятности события, о котором идет речь. Чем меньше вероятность события, тем больше информации оно содержит.
Сначала найдем вероятность того, что случайно выбранный ученик получил четверку. В классе 30 человек, из них 15 получили четверку. Таким образом, вероятность того, что ученик получил четверку, равна:
[ P(четверка) = \frac{15}{30} = 0.5. ]
Количество информации в сообщении о событии с вероятностью ( p ) определяется формулой Шеннона:
[ I = -\log_2(p). ]
Подставляя значение вероятности:
[ I = -\log_2(0.5) = -(-1) = 1 \text{ бит}. ]
Таким образом, сообщение о том, что Иванов получил четверку, содержит 1 бит информации. Это означает, что такое сообщение уменьшает неопределенность оценки Иванова с 2 бит до 0 бит (поскольку после сообщения мы точно знаем оценку).