Потому-то угрозы – всегда обратная сторона возможностей.
Величина, характеризующая количество неопределенности в теории информации, имеет название энтропия, точнее информационная энтропия.
Понятие энтропии тесно связано с понятием количества информации.
Если энтропия – мера неопределенности, то информация – это мера снятой неопределенности.
Информацию как снятую неопределенность определил основоположник теории информации Клод Шеннон.
Ситуация максимальной неопределенности предполагает наличие нескольких равновероятных альтернатив (вариантов), т. е. ни один из вариантов не является более предпочтительным.
Причем, чем больше равновероятных вариантов наблюдается, тем больше неопределенность, тем сложнее сделать однозначный выбор и тем больше информации требуется для этого получить.
В конечном счете, мера снятой неопределенности может быть 100 %, что означает, что мы достигли уровня объективности («изначальной» информации), когда информация уже не связана с превращением неопределенности в определенность.