Подходы к измерению и оценке ценности информации

В различных науках об информации предпринимались попытки ее измерения.

Первое научное осмысление понятия количество информации началось в теории связи. Были введены меры информации.

В 1924 г. Г.Нийквист показал, что скорость передачи сигналов W по каналу связана с числом п различных кодовых символов зависимостью

где к - константа, определяемая скоростью передачи последовательных символов. Он первым предложил логарифмическую меру информации.

В 1928 г. Р.Хартли [1] [2] определил информацию сообщения как

где т - количество символов в сообщении, ап- количество доступных для использования различных символов.

С точки зрения современной теории информации эта мера применима только тогда, когда символы выбираются независимо один от другого, и выбор любого из символов равновероятен.

Наиболее полное развитие теории информации применительно к проблемам ее передачи было осуществлено в сороковые годы К. Шеи- ионом '.

Шеннон связал понятие информации с понятием энтропии и предложил следующую энтропийную меру:

где /;, - вероятность того, будет или нет выбран /'-й символ из полного набора в п символов, которые вырабатывает источник сообщений; величина Н (энтропия) измеряется в битах (от англ, binary digit - двоичная система).

Работы Шеннона и его последователей нашли широкое применение на практике - при оптимизации каналов связи, в системах обработки данных, при разработ ке электронно-вычислительной техники и т.н.

Важные аспекты теории информации применительно к теории связи были решены А.Н. Колмогоровым, Н. Винером. В частности, они независимо решили задачу фильтрации (выделения полезного сигнала из комбинации «сигнал-шум! при заданных статистических характеристиках сигнала) и предсказания значения полезного сигнала.

Эта задача находит широкое использование при проектировании непрерывных динамических систем, в системах управления технологическими процессами.

С развитием кибернетики и теории систем понятие информации развивалось.

Для оценки возможностей различных технических средств сбора, передачи и обработки информации были предложены: теоретикоигровой подход к оценке информации Р.Л. Стратоновина " алгоритмический подход М.М. Бонгарда '. [3] [4] [5]

В дальнейшем информацию стали связывать не только с источником и приемником сигналов, но и с ее значением для потребителя.

Вначале имелись попытки применения рассмотренных выше мер и для оценки ценности социальной информации. Однако при этом возникают трудности доказательства адекватности таких мер.

Предпринимались также попытки создать семантическую теорию информации. Из них наиболее известной является концепция Р.Карнапа и И. Бар-Хиллела ', базирующаяся на понятии логической вероятности как степени подтверждения гипотезы. В соответствии с этой концепцией наивысшей ценностью обладают гипотезы, подтвержденные достоверным знанием, экспериментом. В этом случае логическая информация приравнивается единице, а семантическая нулю. С уменьшением степени подтверждения гипотезы количество содержащейся в ней семантической информации увеличивается. Следует отметить, что при этом гипотезы формулируются на специальном языке, предложенном в рассматриваемой т еории.

Развивая концепцию Карнапа - Бар-Хиллела, Л. Бриллюэн 2 предложил разновидность статистической меры дтя измерения семантической информации, основанную на измерении и уменьшении неопределенности (энтропии). Опираясь на второе начало термодинамики (принцип Карно), Л. Бриллюэн вводит дш измерения информации следующую меру снижения энтропии:

где Ро - число равновероятных исходов, возникновение которых априори считается равновероятным; при этом нет исходной информации о задаче, г.е. априорная информация /0 = 0;

Р, - число равновероятных исходов при наличии информации об измерениях в аналогичных, родственных ситуациях, и тогда информация, снижающая неопределенность равна 1.

Бриллюэн но аналогии с термодинамикой использовал натуральный логарифм, а Д1я того, чтобы выбрать систему единиц ввел коэффициент К, который дтя приведения к принятым к тому времени битам равен

А.А. Харкевич 3 связал ценность информации с целью деятельности, предложив рассматривать энтропийную меру Шеннона как меру вероятности непопадания в цель, т.е. как меру целесоответствия.. [6]

К).Л. Шрейдер предложил построить теорию семантической информации на основе концепции разнообразия, а не концепции снятия неопределенности, и в частности, на основе учета такого свойства информации как зависимость получаемой информации от априорной информации *. Опираясь на идею II. Винера о том, что для понимания и использования информации получатель должен обладать определенным запасом знаний, т.е. в терминах математической лингвистики и теории языков - тезаурусом), Ю.А. Шрейдер определяет количество семантической информации, содержащейся в тексте Г, как степень изменения тезауруса & 1(Т, в).

Такой подход существенно отличается от концепции выбора при статистическом подходе, при котором предполагается, что получаемая информация тем больше, чем меньше априорных сведений содержится в приемнике информации.

Напротив, по Шрейдеру, чем более сложную структуру имеет тезаурус, тем больше существует возможностей для изменений под воздействием одного и того же сообщения. Это хорошо согласуется с законом необходимого разнообразия У.Р. Эшби, согласно которому управляющая (осмысливающая, понимающая, принимающая решения) система должна обладать большим необходимым разнообразием (сложностью) по сравнению с разнообразием поступающей в нее информации от управляемой (понимаемой) системы.

Зависимость информации от априорной

Рис. 2.3. Зависимость информации от априорной

Предлагаемый Шрейдером подход согласуется также с наблюдениями за процессами обмена информацией: но мере роста наших знаний об изучаемом объекте растет и количество извлекаемой информации об этом объекте. Динамику насыщения индивидуального тезауруса Ю.А. Шрейдер иллюстрирует некоторой условной зависимостью (рис. 2.3), характер которой зависит от конкретного потребителя информации или накапливающей информацию информационной системы.

Эта кривая характеризует одну из особенностей информации - зависимость получаемой информации от априорной информации.

Для количественной оценки ценности семантической информации предлагались различные меры. [7]

Так, в [8] предлагается мера для общечеловеческого тезауруса, под которым понимается совокупность понятий, вырабатываемых человечеством в процессе научного познания природы, общества и мышления, связанных друг с другом. Процесс научного познания представляется как уточнение старых и формирование новых научных понятий, в выявлении и корректировке связей между понятиями, т.е. тезаурус трактуется как определенная структура, которая изменяется иод воздействием новой информации в процессе познания и предлагается гипотетический подход, в соответствии с которым информация не одинаково зависит от сложности структуры.

Если под воздействием сообщения внутренняя структура общечеловеческого тезауруса 0 становится менее сложной, чем до этого сообщения, то в таком сообщении содержится больше информации, чем в сообщении, вызывающем усложнение структуры 0.

Этот вывод согласуется с опытом: известно, что крупные научные открытия в целом упрощают структуру знания - благодаря введению новых, более общих понятий, что и является следствием и проявлением свойства кумулятивности информации.

Авторы [8] отоваривают гипотетичность предлагаемого подхода к оценке ценности информации в зависимости от структуры представления общечеловеческого тезауруса, и высказывают идею о необходимости поиска иных мер оценки ценности информации.

Для оценки удовлетворения информационных потребностей в теории научно-технической информации введены меры релевантности и пертинентности.

В дальнейшем стали осознавать, что существуют различные виды информации. Е.К. Войшвнлло [8] предложил различать информацию восприятия (знаки) и информацию-значение, смысловое содержание для потребителя информации (означаемое знака).

В дальнейшем с точки зрения наблюдателя информацию рассматривали в нескольких аспектах: прагматический - для достижения целей наблюдателя; семантический - с точки зрения смыслового содержания и правильности толкования; синтактический (или материально-энергетический, знаковый, технологический) - с точки зрения техники передачи информации. При этом считалось, что наиболее общим является понятие прагматической информации, а семантический и синтактический аспекты информации имеют подчиненное значение.

Рассматривали эти аспекты и как уровни существования информации и вводили для разных уровней разные оценки (иногда с достаточно экзотическими названиями.

Так, в системе мер оценки экономической информации, изложенной в работах Ю.И. Черняка [9] предлагается различать несколько аспектов (уровней) представления и измерения экономической информации (с точки зрения ее полезности для решения задачи, смысла или семантики текста, синтактики знакового отображения, морфологии образования знаков - слов и словосочетаний, и передачи их по каналам связи) и для каждого уровня вводятся свои меры информации в терминах, принимаемых на этом уровне решений (прагма, сем, знак или символ и т.п.).

Развивалось понятие информации и как философской категории. В частности, А.Д Урсул ' стал рассматривать информацию как форму существования материи, подобно массе и энергии.

В теории информационного поля и ее дискретного варианта - информационного подхода к анализу систем А.А. Денисова [4, 11, 23] информация рассматривается как структура материи, как категория, парная но отношению к материи. В этой теории вводятся понятия чувственной J и логической Н (семантической и прагматической) информации, которые для удобства практических приложений названы информацией восприятия и информационным потенциалом.

Долгое время в предыдущих теориях эти информации рассматривались как отдельно существующие, или как уровни информации, и поэтому единое определение понятия информации являлось предметом дискуссий.

А.А. Денисов показал, что информацией для потребителя является пересечение информации восприятия или чувственной информации и ее потенциала или логической информации, в результате чего формируется единое понятие - информационный смысл, информационная сложность, которая в частных случаях представляет собой декартово произведение)./ и Я

Для конструктивного использования понятий чувственная и логическая информация А.А. Денисов ввел соответствующие детерминированные и статистические меры (табл. 2.3).

Детерминированный

способ

измерения

Ji = A/AAj,

где А, — значение измеряемой величины; ДА, «квант», с точностью до которого ЛПР интересует воспринимаемая информация (единица измерения, разрешающая способность прибора)

Вероятностный

способ

измерения

Ji = - log: pt,

где pi — вероятность события.

В случае использования информации для достижения цели Pi называют вероятностью недостижения цели или степенью не- целесоответствия

В концепции А.А. Денисова учитывается, что далеко не всегда может быть строго определено вероятностное пространство. В этом случае можно использовать понятие размытой вероятности в смысле Заде. Поэтому предложена информационная мера, учитывающая степень влияния ресурсов (в том числе информации как ресурса) на реализацию целей.

Эта мера позволяет учесть не только вероятность достижения цели (подцели) /?,, но и вероятность q, того, что данная информация будет использована лицом, принимающим решение, при реализации цели:

Мера Шеннона получается из соотношения (6) при q, = р, как частный случай.

В социально-экономических системах управления в зависимости от формы различают документальную и фактографическую информацию, в зависимости от приложений - экономическую, социальную информацию, классифицируемую но различным признакам.

  • [1] Денисов А.А. Теоретические основы кибернетики: Информационное поле. -Л.: ЛПИ, 1975.-40 с.
  • [2] Хартли Р. Передача информации // Теория информации и ее приложения. -М.: 1959.-С. 5-35.
  • [3] Шеннон К.Э. Работы но теории информации и кибернетике: Сб. статей /К.Э. Шеннон. Нер. с англ, с предисловием А.Н.Колмогорова / Под ред Р.Л.Добрушина и О.Б. Лупанова. - М: Иностр. лит., 1963. - 829 с.
  • [4] ' Стратонович Р.Л. О ценности информации // Изв. АН СССР: Техническаякибернетика, 1965, № 5. - С. 25-38.
  • [5] Ьонгард М.М. О понятии “полезность информации’У/В сб.: Проблемы кибернетики. - М: Физматгиз, 1963. - Вып. 9. - С. 3-23.
  • [6] Bar-Hillel У., Катар R. Semantic Information // British Journal of the Philosofyof Science, 1953, v. 4, № 14. 2 Бриллюэн Л. Наука и теория информация / Л. Бриллюэн. - М.: Физматлит,1960.-392 с. ' Харкевич А.А. О ценности информации // В сб.: Проблемы кибернетики. Вын4. - М.: Физматгиз, 1960. - С. 33-41.
  • [7] Шрейдер Ю.А. О семантических аспектах теории информации // В Сб.: Информация и кибернетика. - М.: Изд-во Сов. Радио, 1967. - С. 22-28.
  • [8] 2 Войшвилло Е.К. Понятие / Е.К. Войшвилло. - М.: МГУ, 1967. - 286 с.;.Войшвилло Е.К. Символическая логика: Классическая и релевантная: Философско-методологические аспекты: Учеб, пособие / Е.К. Войшвилло.. - М.:Высшая школа, 1989. - 149 с.
  • [9] Черняк Ю.И. Информация и управление / Ю.И. Черняк. - М.: Наука,1974. - 184 с.; Черняк Ю.И. Система мер информации как инструмент оптимизации языка управления / Ю.И. Черняк, А.И. Чухнов, Ю.Ю. Финкельштейн// Языки экономического управления и проектирования систем. - М.: Наука,1973.-С. 24-27. : Урсул А.Д. Информация / А.Д. Урсул. - М.: Наука, 1971. - 295 с.;.УрсулА.Д. Отражение и информация / А.Д. Урсул. - М.: Мысль, 1973. - 231 с.
 
Посмотреть оригинал
< Пред   СОДЕРЖАНИЕ ОРИГИНАЛ   След >