Л1.1 - Информация, энтропия и экономические системы

Начать. Это бесплатно
или регистрация c помощью Вашего email-адреса
Л1.1 - Информация, энтропия и экономические системы создатель Mind Map: Л1.1 - Информация, энтропия и экономические системы

1. Информация

1.1. - знание, переданное кем-то другим или приобретенным путем собственного исследования или изучения

1.2. - сведения, содержащиеся в данном сообщении и рассматриваемые как объект передачи, хранения и обработки

1.3. - сведения, известия, в научно-технических предложениях-то, что имеет на себе сигнал

1.4. - алгоритм - совокупность приёмов, правил или сведения, необходимых для построения оператора, где оператор это некая сторонние воздействие на систему, изменяющая спонтанные ход событий

1.5. связана со степенью упорядоченности той системы, которое получает информацию

1.6. Генри Кастлер - случайный и запомненный выбор одного варианта из нескольких возможных и равноправных

2. Количество информации

2.1. I = -N Sum рi log2 рi

2.2. 1948 Клод Шеннон

2.3. если натуральные логарифмы, то единица информации - "нат"

2.3.1. 1 бит =1,44 ната

2.4. Количество информации в смс не зависит от сочетания букв

2.4.1. Смысл смс теряется

2.4.1.1. Информация != Количество информации

3. Ценность информации

3.1. Цель достигнута = информация ценная

3.1.1. Если цель достижима, то информация тем ценнее, чем меньше ресурсов затрачено

3.1.2. Если цель не обязательно достижима, то

3.1.2.1. V=log2*(P/p)

3.1.2.1.1. где р — вероятность достижения цели до получения информации, а P — после

3.1.2.2. V=(P-p)/(1-p)

3.1.2.2.1. изменяется от 0 до 1

3.2. Зависит от величины р (предварительной осведомленности - тезауруса)

3.2.1. Если после получения информации цель достигнута, Р=1, то ценность максимальна и равна количеству

3.2.1.1. V=log2n

3.3. Может быть нулевой

3.4. Нет объективности, в отличие от понятия "осмысленность"