Для определения количества информации в тексте, состоящем из символов, используется понятие энтропии по Шеннону. Энтропия символа алфавита, мощность которого составляет 64 символа, может быть вычислена по следующей формуле:
[ H = \log_2(N) ]
где ( N ) – мощность алфавита, а ( \log_2 ) обозначает логарифм по основанию 2. В данном случае ( N = 64 ), поэтому:
[ H = \log_2(64) = 6 \text{ бит} ]
Это означает, что каждый символ в алфавите из 64 символов несет 6 бит информации.
Теперь, если у нас есть текст длиной в 80 символов, и каждый символ несет 6 бит информации, то общее количество информации в тексте будет равно:
[ I = 80 \times 6 = 480 \text{ бит} ]
Таким образом, текст из 80 символов, при условии, что используется 64-символьный алфавит, содержит 480 бит информации.