ОПРЕДЕЛЕНИЕ понятия ИНФОРМАЦИЯ.

Поставив задачу определить на принципиально уровне, что есть информация, попробуем пойти от обратного, — а что есть не информация?Исходя при этом как из вариантов,  когда мы рассматриваем подходы как  «Атрибутистов» (по мнению которых информация это свойство — атрибут существующий независимо от людей в природе) , так и «Функционалистов» (по мнению которых, информация это функция сформированная людьми  и являющаяся результатом их сознательной деятельности)
(http://www.trinitas.ru/rus/doc/0016/001d/00162140.htm).

Если при этом, мы не сумеем выделить понятие информация, из многообразия понятийных  сущностей, и будем, как это ныне иногда делают, считать информацией  ВСЁ, то этим мы просто дезавуируем  содержание отказавшись от различающего знания.

Но продолжая при том, применять это понятие в неявном виде, и на интуитивном уровне, к  частным случаям (кодам, резонансам, битам, координатам, упорядоченности, мере и пр.)

Однако, здесь очевидно, что во всех этих частных случаях, в интуитивных посылах, информация присутствует как вполне самостоятельное понятие,  определенное интуитивно  через связь с представлениями о  структуре или шире анизотропии.

Саму же анизотропию (изотропию) мы уже можем представить в мысленном эксперименте, и поэтому этот уровень аксиоматики будет вполне приемлем  для первичного постулата, способного свести все многообразие проявлений структурированности (Информации) к общему знаменателю.

Итак, информация = структурированность.

Что же исходя из этого НЕ информация?

Исходя от обратного, не информация  — это то, что безструктурно (или изотропно).

Поскольку в природе таких объектов и явлений в чистом виде не существует (само пространство имеет структуру – «геометрию»), то с точки зрения  Атрибутистов можно говорить только об относительной  мере или степени структурированности – как  мере информации.

Этот же критерий удовлетворяет подходу и с точки зрения «Функциалистов», с той лишь поправкой, что невозможно говорить об структуре (Информации), отдельно, только для сигнала, источника  или приемника.  Необходимо определять границы выделенной системы.

Т.е.  фрагментарный подход дает поверхностное определение, которое в виде скрытых аксиом (неявно) уже будет предполагать сложную начальную структуру:

 – коды,  линии связи, источники, приемники,  наблюдатели  и т.д.

Итак, из сказанного можно сделать следующие выводы:

  1. Не существует объектов или причин в природе, которые бы не имели структуры (информации), и даже в максимально безструктурных объектах, информация  не обращается в нуль (если они существуют в структурированном континууме или проявлены).

Исходя из этого,  для определения Информации необходимо определять, меру структуры и ее связь с  физическим миром или  анизотропией, а в представлении  «Функциалистов» — кибернетиков, рассматривать как комплексную меру анизатропии сигнала (его структуры) и структуры состояния источника/приемника.

  1. Совершенно очевидно, что для реальных объектов и систем, определения меры, возможно, если мы сможем  выделить рассматриваемую нами систему из всего многообразия мира.

Т.е. говоря о мере – мы должны говорить о замкнутых системах (имеющих границу).  Откуда естественно следует вывод, о том, что мера информации может быть определена, только относительно, для выделенной системы.

Причем, сама эта мера – может быть определена, только в пробных взаимодействиях,  в связи с чем см. приложение «Нумерология без Мистики. Откуда числа-то берутся?» — в этом Эссе,  достаточно прозрачно  представлена концепция  связи меры и качеств, отсекающая спекуляции о  безструктурных  «свойствах».

  1. В самой этой выделенной системе, мы вынуждены рассматривать только ту структурированность (информацию), которая может быть актуализирована.

Поскольку любая заданная «по умолчанию» естественная структура  – например  связанная с метрическими свойствами пространства,  уже имеет  постоянный «довесок» — начальную анизотропию, и этот «довесок» в практическом плане, является неактуальной составляющей (т.е. как и в случае с потенциальной энергией, определить можно только относительное значение).

А в плане «идеальных»  — философских  сущностей или фундаментальной меры информации, актуализация происходит  ровно настолько, насколько мы способны осознавать информационное содержание этого «довеска» (структуру, свойства, меру).

Таким образом, мера актуализации информации для выделенной системы, определяется возможностями проявить структурный уровень, в конкретном контексте  (у Функцианалистов),  или в конкретном физическом взаимодействии (у Атрибутистов).

Отсюда, прослеживается очевидная аналогия между информацией и  потенциальной энергией, значение которой,  мы в каждом случае,  можем определить лишь с точностью,  до заданной постоянной.  И актуализация, которой,  аналогично происходит через ее кинетические формы (действие).

Что позволяет сделать еще одно обобщение:

  1. Все в Мире состоит из энергии и информации, которая (информация) суть, та же энергия, но в потенциальной форме.

Или:   информация  =  потенциальная энергия.

Если  в этом контексте рассмотреть меру и качества как интерференцию волн (см. ссылку http://synergy4all.net/?p=796 ),  то саму волну (колебание/цикл),  надо понимать как переход энергии в информацию и обратно.

Или  процесс преобразования кинетической энергии  в потенциальную,  это процесс  преобразования энергии  в информацию (структуру), или обратный ему, переход структуры в энергию.

Итого:
Информация, это энергия в потенциальной форме.
Мера информации, в каждой конкретной системе соответствует, мере кинетической энергии, в которую может быть преобразована информация (структура).

Мировоззренческая проблема, например при анализе символьной информации, возникает при осмыслении  преобразований возникающей при взаимодействии нескольких систем, когда одна структура (имеющая потенциальную энергию) взаимодействует с другой структурой, порождая при этом сложную интерференцию структур и как следствие новый спектр  потенций.
Исходя из сформулированных здесь тезисов, для этих «сложных» случаев, мы можем утверждать: Взаимодействие структур, всегда сводится к интерференции волновых процессов, а порожденные при этом спектры и мера, могут рассматриваться как совокупность суммарно-разностных гармоник колебательных процессов
Т.е. информация сложных систем является волновой интерференцией суммы процессов перехода энергии в информацию (потенцию) и обратно.

Следовательно, потенциал информации для сложных процессов равен сумме из потенциалов всех участвующих в процессе структур (объектов/систем) и измеряется той кинетической энергией, которая при этом может выделится как результирующая.
А учитывая волновую форму (перехода потенция-кинетика),  эти энергии будут структурированы законами интерференции и сформируют спектры, соответствующие исходным и производным  структурам.
Что собственно, мы и наблюдаем в природе, причем именно через такие спектры мы определяем структуры веществ, и их энергию.
Выше приведенный анализ, позволяет распространить этот подход и на все другие уровни организации материи и ее структур (информации), рассматривая их как волновой процесс.

В заключение следует указать связь информации с вероятностью (функцией времени). Очевидно, что чем менее вероятное явление мы наблюдаем, тем большая структурированность (или упорядоченность) ему соответствует. Так вероятность N=1   предполагает чисто энтропийное событие, на которое не влияет никакая анизотропия (структура).

Таким образом, мы можем определить информацию в классической форме как величину обратную вероятности.
Т.е.   F=1/N
Где F это информация, а N вероятность события.
То есть, чем более маловероятное событие мы наблюдаем, тем больший информационный потенциал (структура и анизотропия)  за этим явлением стоит.
В этом случае полная формула для меры информации, ее определяющая будет выглядеть следующим образом:
F=Ep/N
Где E  это потенциальная энергия (определяемая с точностью до выделенной системы), а N вероятность события в ней происходящего.

В итоге, заключительная формулировка, что такое информация и чему она соответствует выглядит следующим образом:
Величина информации для рассматриваемой системы, прямо пропорциональна ее потенциальной энергии и обратно пропорциональна вероятности ее состояния.

Или кратко, информация пропорциональна потенциальной энергии и маловероятности события.

С. Лачинян   3.07.2013г.

Запись опубликована в рубрике Без рубрики. Добавьте в закладки постоянную ссылку.