Чтобы определить количество информации, которое несет сообщение, записанное буквами 128-символьного алфавита, мы можем использовать понятие информационной энтропии, предложенное Клодом Шенноном. В данном случае, каждый символ в сообщении выбирается из 128 возможных, следовательно, количество информации, которое несет каждый символ, может быть рассчитано как логарифм по основанию 2 от количества возможных символов:
[ I = \log_2(128) ]
Поскольку ( 128 = 2^7 ), то (\log_2(128) = 7) бит. Это означает, что каждый символ в этом алфавите несет 7 бит информации.
Теперь, чтобы найти общее количество информации, которое несет сообщение длиной 200 символов, мы умножаем количество информации на один символ на общее количество символов:
[ I_{\text{total}} = 7 \, \text{бит/символ} \times 200 \, \text{символов} = 1400 \, \text{бит} ]
Таким образом, сообщение из 200 символов, записанное буквами 128-символьного алфавита, несет 1400 бит информации.