Для расчета количества информации в битах в приветствии каждого племени, используем формулу Шеннона:
I = -log2(P),
где I - количество информации в битах, P - вероятность появления символа.
Поскольку алфавит первого племени содержит N символов, вероятность появления каждого символа равна 1/N. Для алфавита второго племени вероятность каждого символа равна 1/(2N).
Теперь рассчитаем количество информации в битах в приветствии каждого племени:
Для первого племени:
I1 = -log2(1/N) = log2(N) бит.
Для второго племени:
I2 = -log2(1/(2N)) = log2(2N) бит.
Теперь сравним количество информации в битах в приветствиях каждого племени. Поскольку log2(2N) = log2(2) + log2(N) = 1 + log2(N), то количество информации в приветствии второго племени будет на 1 бит больше, чем в приветствии первого племени.
Таким образом, приветствие второго племени содержит больше информации на 1 бит.