СИСТЕМНЫЕ ОБРАЗОВАНИЯ: ИНФОРМАЦИЯ И ОТРАЖЕНИЕ
Вяткин В.Б.
Часть 2. Отражение дискретных систем в плоскости признаков их описания // Научный журнал КубГАУ [Электронный ресурс]. – Краснодар: КубГАУ, 2009. – №01(45). – Шифр Информрегистра: 0420900012\0001. – Режим доступа: http://ej.kubagro.ru/2009/01/pdf/12.pdf В статье проведён анализ отражения дискретной системы с конечным множеством элементов в плоскости множества значений произвольного признака. Доказано, что отражаемая системой информация делится на отражённую и неотражённую части и получены соответствующие информационные функции. Установлен структурный закон сохранения суммы хаоса и порядка и дана классификация дискретных систем по их структурной организации. Показана взаимосвязь синергетической и вероятностной теорий информации. Установлен закон сохранения информации.
«Не видно, почему теория информации
должна столь Колмогоров А.Н.
Введение
В предыдущей
статье автора [1], опубликованной в настоящем издании, был изложен
новый – синергетический – подход к определению количества информации
и получена формула негэнтропии отражения
При этом
напомним, что гносеологически формула (1) относится к ситуации,
когда множества
А
и В выделены в составе некоторой дискретной системы
Развивая в
настоящей статье синергетический подход к определению количества
информации, будем считать, что множество
1). Будем
анализировать только те ситуации, когда отражающие множества
а – система А информационно закрыта; б – система А информационно открыта
Рисунок 1. Отражение системы
конечных множеств
То есть:
и, соответственно:
2). Отражаемая
система А по отношению к окружающей среде (элементам
дополняющего множества
Система
А в плоскости
признака
Система
А в плоскости
признака
3).
Количество любой информации, измеряемой с помощью двоичных
логарифмов, традиционно принято выражать в битах (слово бит,
как сокращённое название двоичной единицы (binary
digit),
было предложено Тьюки [2]). То есть
С учётом
сделанных замечаний перейдём к непосредственному рассмотрению
особенностей отражения системы А через совокупность конечных
множеств (систем)
Отражение информационно закрытых систем
Количество
информации
По значениям
признака
При анализе
отражения системы А через совокупность своих частей,
информация
из которого следует, что
Иначе говоря,
не вся информация о системе А, как едином целом, отражается
через совокупность её частей и всегда существует некоторая часть
информации Является очевидным, что аддитивная негэнтропия отражения и неотражённая информация по отношению друг к другу выступают в качестве взаимодополняющих противоположностей и характеризуют отражение дискретных систем через свои части с различных сторон, – определённости и неопределённости, соответственно. Это позволяет говорить о том, что неотражённая информация представляет собой энтропию отражения. Обозначим энтропию отражения символом S и определим её величину как разность между отражаемой и отражённой информациями:
В соответствии с формулами (2) и (3) запишем:
Умножив и
разделив аргумент второго логарифма в выражении (5) на
Так как
Из выражений (3)
и (6) видно, что при постоянстве
Иначе говоря, увеличение числа отражающих конечных множеств приводит к возрастанию хаотичности, неупорядоченности, неопределённости отражения дискретной системы, как единого целого. То есть, чем более неадекватно отражение, тем больше его энтропия и меньше аддитивная негэнтропия. Так как структуру любой системы, в первую очередь, характеризуют количество её частей и взаимоотношение последних по числу элементов, то также можно утверждать, что аддитивная негэнтропия и энтропия отражения, по отношению к структуре отражаемой системы, выступают в качестве показателей её упорядоченности и хаотичности или, выражаясь другими словами, являются мерами структурного хаоса и порядка, соответственно. Проиллюстрируем это следующим примером. На рисунке 2 приведены различные состояния системы, состоящей из 16-ти элементов, которые характеризуются признаком «направление движения». По значениям этого признака система последовательно принимает 5 состояний, которым соответствует её деление на 1, 2, 4, 8, 16 равновеликих частей.
Рисунок 2. Деление системы на равновеликие части по признаку «направление движения элементов»
В состоянии на рисунке 2а все элементы движутся в одном направлении, и в структуре системы наблюдается идеальный порядок. На рисунке 2д имеем полярную противоположность, то есть каждый элемент системы обладает строго индивидуальным направлением движения и структура системы является максимально хаотичной. Состояния системы на рисунках 2б,в,г занимают промежуточное положение по отношению к состояниям на рисунках 2а,д и характеризуются тем, что в их структуре присутствует как хаотичность, так и упорядоченность. Рассчитывая для каждого состояния системы по формулам (3) и (6) значения аддитивной негэнтропии и энтропии отражения, получаем[1]:
Из приведённых результатов видно, что нарастанию хаоса и уменьшению порядка в структуре системы на рисунке 2 соответствует уменьшение значений аддитивной негэнтропии и увеличение значений энтропии отражения.
Аддитивная
негэнтропия
В то же самое
время, как было показано,
порядок + хаос = const
Например, для
вышеописанной системы на рисунке 2, как это видно из результатов
проведённых расчётов, по всем её состояниям имеем:
Хаотичность и упорядоченность в своей совокупности определяют в целом структурную организацию системы и, соответственно, для ее количественной характеристики может использоваться та или иная функция, аргументами которой являются меры хаоса и порядка. В качестве такой функции структурной организации может использоваться так называемая R-функция[2], представляющая собой отношение аддитивной негэнтропии к энтропии отражения:
То есть значения R-функции говорят о том, что и в какой мере преобладает в структуре системы: хаос или порядок. Так, если R > 1, то в структуре системы преобладает порядок, в противном случае, когда R < 1 – хаос. При R = 1 хаос и порядок уравновешивают друг друга, и структурная организация системы является равновесной. Например, для различных структурных состояний системы на рисунке 2 значения R-функции равны:
Рассмотрим теперь
особенности взаимоотношений аддитивной негэнтропии
Энтропия отражения является максимальной, когда все части системы представлены одинаковым числом элементов, то есть:
Соответственно, минимальная величина аддитивной негэнтропии отражения имеет вид:
Максимальное
значение, в свою очередь, аддитивная нгэнтропия будет принимать
тогда, когда число элементов в одной части равно
Соответственно, минимальная величина энтропии отражения равна:
Построим графики
Рисунок 3. Информационное поле отражения дискретных систем ( MA = 118 )
Приведённые
графики изначально образуют два контура: энтропийный –
abdefha
и
негэнтропийный или информационный –
cdfghbc,
которые локализуют соответствующие области всех возможных значений
энтропии и аддитивной негэнтропии отражения информационно закрытых
систем. Пересечение этих контуров по точкам
b
и
f,
где наблюдаются равенства
В точке
b,
согласно правым частям выражений (10) и (11), имеем уравнение
При этом необходимо отметить, что поскольку
N
может принимать только целочисленные значения, то границы интервалов
определяются с точностью до ближнего большего целого. Аналогичное
уравнение для точки
f,
образованное правыми частями выражений (12) и (13) не имеет
аналитического решения. То есть, значение
N,
соответствующее проекции точки
f,
точно может быть определено только численным путём. (Для членов
последовательности N = 1, 2, …,
Таким образом,
при заданном
- левый:
- центральный:
- правый:
Форма границ
интервалов и соответствующие области возможных значений
N,
в зависимости от величины
Рисунок 4. Области интервалов значений N
Отражение систем,
попадающих в левый интервал (см. рисунок 3), характеризуется тем,
что при любых соотношениях их частей между собой по числу элементов,
сохраняется неравенство
В правом
интервале наблюдается противоположная картина, когда при любых
структурных преобразованиях системы выполняется неравенство
В центральном
интервале происходит пересечение областей возможных значений
Иначе говоря, в левом интервале значений N наблюдается необратимое преобладание в структуре системы порядка над хаосом, а в правом интервале, наоборот, – необратимое преобладание хаоса над порядком. В центральном интервале, в свою очередь, преобладание как порядка над хаосом, так и хаоса над порядком является обратимым. Чтобы отчётливо представлять, что значит порядок левого интервала и хаос правого, а также гармония их взаимоотношений в центральном интервале, приведём образные лингвистические примеры. Любой текст, как дискретная система с конечным множеством элементов, может быть рассмотрен в плоскости алфавита, с помощью которого он написан. Совокупности одинаковых букв при этом образуют отдельные части системы и, соответственно, для анализа структуры текста может использоваться материал настоящего раздела. Проведём такой анализ текстов, полученных различными исполнителями. Возьмём известную обезьяну-машинистку, с которой «работал» французский математик Э.Борель, ожидая, что когда-нибудь получит от неё шекспировские строки. Проводя мысленный эксперимент, посадим обезьяну за пишущую машинку (клавиатуру компьютера). Обезьяна, случайным образом ударяя по клавишам, получает чехарду букв, лишённую всякого смысла. Такой текст олицетворяет хаос правого интервала, а его R-функция равна нулю (при длине текста, не превышающем количество букв алфавита). Посадим теперь за другую пишущую машинку дятла, который начинает методично бить по одной и той же клавише, и выдаёт однобуквенную последовательность. Текст дятла также лишён какого-либо смысла и находится в крайней левой части левого интервала, где идеальный порядок. R-функция при этом устремляется в бесконечность. Сам собой напрашивается вывод, что наполненные смыслом содержательные тексты, по своей структурной организации, должны находиться в центральном интервале, а их R-функция должна стремиться к единице. Чтобы проверить это, пригласим А.С. Пушкина и, посадив его за третью пишущую машинку, попросим что-нибудь напечатать. Явившийся нам при этом текст, представляет собой четырнадцатистишия поэмы «Евгений Онегин», каждое из которых находится в центральном интервале, а значения R-функции равны:1-е четырнадцатистишие – R = 0.94; 2-е – R = 0.95; 3-е – R = 0.95 и т.д. То есть, А.С. Пушкин подтвердил наши предположения, показав, что содержательные, наполненные красотой и гармонией тексты, находятся в центральном интервале, а хаос и порядок в их структуре уравновешивают друг друга.
В собственно лингвистическом
отношении сказанное, по-видимому, означает, что принадлежность
текстов к центральному интервалу (при их длине до
Указанные особенности интервалов значений N позволяют любые дискретные системы с конечным множеством элементов, в зависимости от количества частей, на которые они разделяются в плоскости какого-либо признака, формализовано классифицировать на три типа: - упорядоченные (левый интервал); - синергетичные (центральный интервал); - хаотичные (правый интервал). Например, система на рисунке 2 в различных своих состояниях будет представляться как: а – упорядоченная; б – упорядоченная; в – синергетичная; г – хаотичная; д – хаотичная. Точно также в приведённых лингвистических примерах олицетворением различных типов систем являются: текст дятла – упорядоченная система; текст обезьяны – хаотичная система; четырнадцатистишия «Евгения Онегина» – синергетичная система.
Заканчивая
характеристику отражения информационно закрытых систем, отметим, что
информационно-синергетические функции хаоса и порядка
Отражение информационно открытых систем
При
информационном открытии системы (см. рисунок 1б) осуществляется её
непосредственная взаимосвязь (взаимодействие) с окружающей средой, в
результате чего часть отражаемой информации
система, то энтропия
S
(6), являясь функцией внутреннего строения системы, при
информационном открытии последней не изменяется, то есть является
инвариантной величиной относительно любых взаимоотношений системы с
окружающей средой. Это говорит о том, что при открытии системы, в
общей энтропии её отражения, появляется новая составляющая
Определим
величину внешней энтропии отражения, исходя из соблюдения баланса
между отражаемой информацией, с одной стороны, и отражённой
(негэнтропия) и неотражённой (энтропия) информациями, с другой
стороны. Так как отражаемая информация
где
системы.
Освободимся в
выражении (14) от аддитивной негэнтропии
Умножив и
разделив полученное выражение на
Первый
сомножитель в выражении (15) представляет собой отношение количества
элементов дополняющего множества
Совокупность
второго и третьего сомножителей, в свою очередь, представляет собой
негэнтропию отражения
Вернёмся теперь к
рассмотрению информационного поля отражения дискретных систем на
рисунке 3. Является очевидным, что прямоугольный контур
aceg
ограничивает в целом площадь информационного поля, включающего в
себя, при данном
минимум аддитивной негэнтропии и максимум общей энтропии отражения выходят на свои асимптотические значения, лежащие, соответственно, на линиях ag и ce. При этом полностью задействуются три новых области информационного поля отражения: abca, ahga и cdec. Причём, в первую из указанных областей попадают значения, как аддитивной негэнтропии, так и энтропии отражения, а вторую и третью области занимают, соответственно, только значения одной из них. Таким образом, комплексные области возможных значений отражённой и неотражённой информации ограничены контурами: аддитивная негэнтропия отражения – acdfga, энтропия отражения – acefga. Заканчивая описание распределения отражаемой информации по информационному полю отражения acega, отметим также, что в его пределах существует довольно обширная область efge, в которую никогда не попадают значения как отражённой, так и неотражённой информации.
Информационный закон отражения
На основе изложенного материала составим информационный баланс отражения дискретных систем для общего случая, соответствующего состоянию информационной открытости системы:
Если система
информационно закрывается, то есть перестаёт взаимодействовать с
окружающей средой, то
Полученное
выражение (18) является устойчивым, однозначным соотношением между
отражаемой, отражённой и неотражённой информациями, справедливым для
любых дискретных систем, представленных конечным множеством
элементов, вне зависимости от степени их информационной открытости,
количества отражающих объектов и их соотношения между собой по числу
элементов, что позволяет придать ему статус закона. Дадим этому
закону название информационный закон отражения и
сформулируем его следующим образом: при отражении системы А
через совокупность систем
неотражённую части, первая из которых равна аддитивной негэнтропии, а вторая – сумме внутренней и внешней энтропий отражения. Установленный закон по своей форме подобен известным физическим законам, таким как закон сохранения энергии, закон сохранения количества движения и т.д. При этом особо отметим, что на необходимость установления подобного рода законов в теории информации указывалось математиками и философами ещё в 50-е – 60-е годы прошлого столетия. Так, например, академик А.А. Харкевич писал: «Несмотря на быстрые темпы развития, общая теория связи (теория информации – прим. В.В.) не получила еще завершения в своих основных построениях. Обращает на себя внимание, в частности, отсутствие до настоящего времени системы основных законов типа законов сохранения, характерных для многих сложившихся отраслей знания. Наличие подобного рода законов, специфичных для связи, интуитивно ощущается. Однако эти законы еще не найдены и не сформулированы» [3, с.89]. Еще более близки к установленному нами закону философские заключения И.Б. Новика [4], который первым предложил трактовать информацию как форму отражения и считать, что информация – это упорядоченность отражения, а шум – неупорядоченность, хаотичность отражения. При этом было сделано предположение, фактически точно предсказывающее выражение (8): «Закон сохранения отражения в замкнутой системе может быть представлен в виде: I+N=const, где I – количество информации, а N (от англ. слова noise – шум) – количество шума, то есть суммарное количество отражения в замкнутой системе – величина постоянная» [4, с.127]. Это философское предсказание до получения выражений (8) и (18) не имело аналитического подтверждения, так как существующая теория информации не могла предоставить для измерения информации и шума (энтропии) различные функции, сумма значений которых оставалась бы постоянной. В связи с этим, проводя параллели с физическими законами сохранения, тот же И.Б. Новик говорил: «Если рассматривать одну какую-нибудь форму энергии (например, тепловую), то сохранения этой формы мы не обнаружим. Подобно этому, по-видимому, и при рассмотрении только одной формы отражения (информации) без учёта её перехода в другую форму закон сохранения в данной области не удаётся установить» [4, с.127].
Изложенный
материал свидетельствует, что нами получены три информационные формы
отражения
Сравнительная характеристика синергетической и вероятностной теорий информации
Отношение
Полученная формула (19) широко известна в науке как энтропия множества вероятностей Шеннона [2] и занимает в традиционной теории информации фундаментальное положение, являясь мерой количества информации, возможности выбора и неопределённости.[3] Данный факт говорит о том, что вероятностная и синергетическая теории информации, имея предметом своего познания различные виды информации (связанной с управлением и существующей независимо от него), в то же самое время непосредственно взаимосвязаны между собой отношением взаимного проникновения друг в друга и, как следствие, в своей совокупности образуют единую количественную теорию информации. Образно выражаясь, можно сказать, что синергетическая и вероятностная теории информации являются оборотными сторонами одной и той же медали, название которой – «количество информации». В качестве переходного мостика при этом выступает энтропия (19), играющая в данных теориях различную роль. В то же время необходимо отметить следующее. – В теории информации Шеннона энтропия (19) вводится в рассмотрение эмпирическим путём в самом начале теории, как функция, удовлетворяющая требованиям, априорно предъявленным к мере неопределённости выбора одной из N различных по своим вероятностям возможностей. В синергетической теории информации, в свою очередь, энтропия (19) получена аналитическим путём в процессе анализа отражения информационно закрытых систем, как разность между отражаемой и отражённой информациями. Иначе говоря, в синергетической теории информации энтропия (19) представляет собой меру неотражённой информации для информационно закрытых систем, и в силу этого является вторичной, то есть выводимой через негэнтропию отражения функцией. Сказанное приводит нас к выводу, что с информационно-генетических позиций синергетическая теория информации является первичной по отношению к вероятностной теории информации Шеннона. При этом следует отметить, что данное утверждение полностью согласуется с выводом академика А.Н. Колмогорова о том, что «теория информации должна предшествовать теории вероятностей, а не опираться на неё» [5, с. 249].[4] Продолжая сравнение теорий, и обращаясь при этом к диаграмме на рисунке 3, можно видеть, что в собственно информационном отношении вероятностная теория информации ограничена энтропийным контуром abdefha. Остальная часть информационного поля отражения дискретных систем, в отличие от синергетической теории информации, остаётся для неё недоступной. Иначе говоря, сфера приложения теории информации Шеннона ограничена информационно закрытыми системами. Но даже в этих условиях основополагающая информационно-энтропийная мера Шеннона, взятая сама по себе, является инвариантной функцией относительно размеров структурно-подобных систем. (Структурно-подобными мы называем системы, в составе которых выделяется одинаковое количество частей и наблюдается одно и то же пропорциональное соотношение последних по числу элементов.) Примеры таких систем приведены на рисунке 5.
Рисунок 5. Структурно-подобные системы
Проводя для
приведённых структурно-подобных систем
Система:
Энтропия Шеннона (S): 2 2 2 (энтропия отражения)
Аддитивная негэнтропия
R-функция: 0 1 2
Как видим,
энтропия Шеннона для всех трёх систем имеет одинаковое значение, то
есть не отличает эти системы друг от друга. В то же время, поскольку
S
и
Обобщая
сказанное, и подчёркивая, что в традиционной теории информации
фигурирует только одна из трёх информационно-синергетических функций
Закон сохранения информации
Представление внутренней энтропии отражения в виде формулы (19) свидетельствует о том, что одна из разновидностей синергетической информации тождественна вероятностному виду информации. Поэтому, рассматривая внутреннюю энтропию S как количество вероятностной информации и, проводя соответствующую интерпретацию равенств (8) и (18), можно утверждать, что эти равенства на межвидовом информационно-количественном уровне выражают закон сохранения информации, который, в зависимости от того, какими являются системы в информационном отношении, может быть сформулирован следующим образом. Информационно закрытые системы: В информационно закрытых системах с конечным множеством элементов суммарное количество синергетической и вероятностной информации сохраняет своё постоянное значение при любых структурных преобразованиях систем. Информационно открытые системы: Общее суммарное количество вероятностной и синергетической информации, как находящейся внутри информационно открытых систем с конечным множеством элементов, так и передаваемой этими системами в окружающую среду, и получаемой ими из окружающей среды, сохраняет своё постоянное значение при любых структурно-системных преобразованиях и взаимоотношениях систем с окружающей средой. Раскроем содержание установленного закона сохранения информации, для чего представим его в иллюстративной форме, как это показано на рисунке 6.
а – информационно закрытая система б – информационно открытая система
Рисунок 6. Графическое выражение закона сохранения информации
Информационно закрытые системы.
Когда система является закрытой в информационном отношении (см.
рисунок 1а), в ней совместно с вероятностной информацией
S
присутствует только одна разновидность синергетической информации в
виде аддитивной негэнтропии отражения
При этом
изменение соотношения между различными видами информации и их
взаимные переходы друг в друга определяются тем, в каком направлении
осуществляются структурные преобразования системы. Так, например,
если количество частей системы уменьшается, а тем более, если при
этом какая-то часть системы начинает доминировать по числу
элементов, то возрастает количество синергетической информации и
уменьшается количество вероятностной. В пределе, когда все элементы
системы в плоскости какого-либо признака становятся неотличимыми
друг от друга и, соответственно, система не разделяется на части
Так как суммарное количество синергетической и вероятностной информации в системе не изменяется, то каждый из отмеченных противоположных процессов в информационно-количественном отношении заканчивается одним и тем же результатом, математически выражаемым чисто комбинаторной формулой количества информации. При этом, в первом случае, когда уменьшается количество частей и в структуре системы возрастает порядок, мы приходим к формуле количества информации, самоотражаемой конечным множеством [1], а во втором случае, при максимальной хаотичности структуры, имеем двоичный логарифм Хартли [6], лежащий в основе традиционного комбинаторного подхода к определению количества информации [7]. То есть, по-видимому, можно сказать, что комбинаторное количество информации, в зависимости от того, с какой стороны его рассматривать, может относиться, как к синергетическому, так и к вероятностному виду информации и измеряться, соответственно, в битах отражения или в битах управления. Рассматривая теперь математическую форму закона сохранения информации, в свете сказанного можно утверждать, что выражение (8), помимо прочего, представляет собой уравнение взаимосвязи различных подходов к количественному определению информации, что позволяет сделать методологический вывод. – Комбинаторный, вероятностный и синергетический подходы к определению количества информации неразрывно взаимосвязаны между собой и в своей совокупности составляют единую количественную основу общей теории информации.
Информационно открытые системы.
Когда система
информационно открывается (см. рисунок 1б), начинается её
взаимодействие с окружающей средой, в результате чего часть
синергетической информации
Если в
последующем система начинает обратно закрываться
Также как в
случае информационной закрытости, рассмотрим два полярных друг другу
структурных состояния системы. В первом случае, когда система
предельно упорядочена
Во втором случае,
при максимальной хаотичности структуры системы
Заключение
В двух статьях, на основе простого аксиоматического базиса, без опоры на теорию вероятностей и традиционную теорию информации, пройден путь от рассмотрения элементарного конечного множества до установления на межвидовом информационно-количественном уровне закона сохранения информации и его частной формы, – структурного закона сохранения суммы хаоса и порядка. При этом получены неизвестные ранее информационно-количественные функции, и в то же время показана их непосредственная взаимосвязь с традиционными мерами информации (комбинаторной и вероятностной). Всё это говорит о том, что в лице синергетической теории информации мы имеем вполне сформировавшуюся новую научную теорию. Дальнейшее развитие этой теории и внедрение её в практику научных и прикладных исследований, по нашему мнению будет иметь значение не только для общей теории информации, но и для тех предметных областей, где объекты познания представимы в виде дискретных систем, состоящих из конечного множества элементов. Не исключено, что одной из таких областей, в числе первых, может стать статистическая термодинамика, полемика вокруг непосредственной взаимосвязи которой, с вероятностной теорией информации Шеннона, идёт уже далеко не один десяток лет. Поэтому, одним из актуальных направлений дальнейших исследований, нам видится информационно-синергетический анализ термодинамических систем в процессе их перехода из структурно-упорядоченного состояния в состояние термодинамического равновесия.
Литература
1. Вяткин В.Б. Синергетическая теория информации. Часть 1. Синергетический подход к определению количества информации // Научный журнал КубГАУ [Электронный ресурс]. – Краснодар: КубГАУ, 2008. – №44(10). Режим доступа: http://ej.kubagro.ru/2008/10/pdf/12.pdf 2. Шеннон К. Работы по теории информации и кибернетике. – М.: Изд. иностр. лит., 1963. – 830с. 3. Харкевич А.А. Очерки общей теории связи. – М.: Гостехиздат, 1955. – 268с. 4. Новик И.Б. Негэнтропия и количество информации // Вопросы философии. – 1962, № 6. – С.118-128. 5. Колмогоров А.Н. Теория информации и теория алгоритмов. – М.: Наука, 1987. – 304с. 6. Хартли Р.В.Л. Передача информации. // Сб.: Теория информации и ее приложения. – М.: Физматгиз, 1959. – С. 5-35. 7. Колмогоров А.Н. Три подхода к определению понятия «количество информации» // Проблемы передачи информации. – 1965, т.1, №1 – С. 3-11.
[1] Здесь и далее, значения аддитивной негэнтропии и энтропии отражения приводятся в битах отражения. [2] Название функции дано по первой букве англ. слова reflection, что в переводе на русский язык означает отражение. [3] Основание логарифма в формуле (19) по Шеннону может быть любым и определяется выбором единиц измерения информации (бит, дит, нат и т.п.), исходя из соображений удобства решения той или иной задачи, а в синергетической теории информации, как было показано [1], основание логарифма больше двух не допускается. [4] В данном отношении весьма примечательно и другое высказывание А.Н. Колмогорова: «Не видно, почему теория информации должна столь существенно основываться на теории вероятностей, как это представляется по большинству руководств … эта зависимость от заранее созданной теории вероятностей в действительности не является неизбежной». (Колмогоров А.Н. Указ. соч., с. 240. Разрядка моя – В.В.) |