Вещество характеризуется тремя основными группами параметров – составом (атомным и изотопным), структурой и свойствами. Все эти три группы параметров определяют информацию, заложенную в веществе. Информация, хранящаяся в веществе, выступает как его интегральная характеристика. Один из подходов к оценке количества информации состоит в представлении структуры вещества как «текста сообщения».
Классическая (шенноновская) теория информации определяет информацию как меру неопределенности ситуации в состоянии «выбора» – чем меньше вероятность образования какой-либо структуры, тем большую информацию несет «сообщение» об ее образовании [1, 2]. Для того, чтобы непосредственно использовать теорию Шеннона для количественных расчетов, необходимо любую структуру представлять в виде «сообщения» – «слова» или «текста».
Шеннон в качестве меры неопределенности ввел энтропию информации. Пусть мы рассматриваем опыт, имеющий исходы А1, А2, …, Ак, а р(А1), р(А2), …, р(Ак) – вероятности отдельных исходов опыта. По Шеннону каждому исходу опыта Аi следует приписать неопределенность, равную – log2p(Ai). Для всех возможных исходов в качестве меры неопределенности вводится величина H, равная
.
Применим эту формулу, например, к расчету неопределенности содержащей в формуле какого-либо вещества (формула вещества – это и есть «текст сообщения»). Так, энтропия информации формульной единицы серной кислоты H2SO4, состоящей из семи атомов, равна
H= – (2/7) log2(2/7) – (1/7) log2(1/7) –
– (4/7) log2(4/7)= 1,379.
Такую же энтропию информации будет иметь любое вещество состава А2ВХ4, например, K2SeO4. По формуле Шеннона определяется количество информации безотносительно к ее смысловому содержанию и, в частности, к особенностям структуры вещества. При этом, как об этом неоднократно отмечалось в литературе, игнорируется смысл информации и ее ценность.
Абсолютная величина информации, содержащаяся в веществе, неизвестна, но для изучения термодинамики химических явлений достаточно знать изменение информации при переходе из одного структурного состояния в другое. Не всякий процесс структурообразования ведет к созданию новой информации. Простая трансляция примитивной ячейки ведет к образованию кристалла, но не ведет к появлению новой информации о системе. При этом существенно, что рост кристаллов является дискретным процессом и осуществляется практически единичным путем (вероятность строго определенного наращивания структуры в конфигурационном пространстве системы взаимодействующих атомов близка к единице).
Иное дело некристаллические вещества и наноструктуры – здесь агрегирование структурных единиц происходит по программам [3-6]. На примере нанобъектов и идеальных кристаллов в таблице 1 систематизированы и обобщены источники происхождения структурной информации. Информация в неживых системах возникает тогда, когда есть «выбор» между множеством возможностей формирования структуры вещества. Структура, таким образом, регистрирует информацию и выступает как «память пути» образования химического вещества.
Это же общее положение относится и к живым системам. В рамках статистической механики и термодинамики невозможно отличить живой организм от неживого. Возникновение живого вещества связано с механической, электрической, тепловой, химической работами, но ни один из этих видов работ, ни вся их совокупность не могут описать информационные процессы. Для этого необходимо ввести параметры, характеризующие состояние выбора системой своей организации. Поясним подробней. Организмы представляют собой информационные системы. Они получают наследственную информацию от своих предков и живут для того, чтобы передать ее потомкам. При таком подходе все остальные механические, физические и химические процессы можно трактовать как вспомогательные. Они способствуют (создают условия) выполнению информационных функций организмом. Генетический код в молекуле ДНК характеризуется последовательностью «букв», означающих тип сорасположения друг относительно друга нуклеотидных пар. Если бы была жесткая предопределенность в расположении этих «букв», то молекула ДНК не была бы информационной молекулой. Ю.А. Жданов предложил соединения, выполняющие функции переноса информации, называть информерами [7].
Таким образом, в общем случае информерами являются такие химические структуры как неживой, так и живой материи, формирование которых предполагает выбор одного из нескольких вариантов ее образования из начального состояния. Поэтому в получившейся структуре «запечатана» информация и «чтение» («прочтение») этой информации означает выяснение эволюционного пути формирования структуры.
Поясним, как можно формализовать данный подход. Равновесное состояние однородного однокомпонентного вещества определяется двумя независимыми термодинамическими параметрами, например, его давлением р и температурой T (могут быть и другие варианты: либо объемом V и T, либо V и энтропией S).
Однако кроме этих параметров, описывающих состояние тела в данных внешних условиях в целом, могут быть введены внутренний(е) параметр(ы) x, описывающие структурные особенности системы. По своему смыслу x – это параметр порядка, характеризующий отличие симметрийно-структурных характеристик различных состояний вещества. В общем случае x многокомпонентный параметр, т.е. x={ξ1, ξ2, … ξn}, имеющий или скалярную, или векторную, или тензорную природу. x – экстенсивный параметр системы, подобный энтропии, объему, массам компонентам. Внутренние структурные параметры системы ξ1, ξ2, … ξn могут иметь самые различные структурные источники происхождения: вероятности занятия атомами различных подрешеток кристалла, вероятности появления слоя определенного состава в гетероструктуре, вероятности ориентации или молекулярной группы, или спина, или атомной орбитали в пространстве, смещение атомов из позиций равновесной структуры при образовании ее новой модификации и т.д.
Внутренний параметр x входит в выражение дифференциалов термодинамических потенциалов – внутренней энергии U, свободной энергии F, энергии Гиббса Ф – в виде дополнительного члена [8-14]. Так, например, дифференциал внутренней энергии может быть записан:
dU=TdS – pdV + Ψidξi.
Сопряженные внутренним структурным параметрам ξi являются интенсивные параметры Ψi (i=1,2,…, n), означающие внешние воздействия («силы») на вещество: Ψi=(∂U/∂ξi)S,V.
Информация нами рассматривается как внутренний параметр системы x={ξ1, …ξn}. Сопряженные с информацией специфические внешние воздействия Ψi мы определяем как программное управляющее воздействие на вещество (программу).
Произведение параметров xΨ имеет размерность работы (если будет учтен коэффициент, отражающий специфику введения в термодинамический потенциал параметра x– этот параметр может быть введен и как размерная, и как безразмерная величина) и по физическому смыслу означает работу по формированию структурной организации вещества. Специфические внешние воздействия (последовательность определенных операций с веществом) Ψi обуславливают формирование структурной организации вещества. Последовательность Ψ1, Ψ2, …, Ψn и есть программа формирования структуры вещества. Программа «работает», когда химическая система находится в неравновесных условиях, так как в состоянии равновесия Ψi (i=1,2,…, n)=0.
Из рассмотренного подхода вытекает, что без энергетических затрат информация появиться не может, но энергетических затрат недостаточно для появления информации. Необходимо размещенное по определенным правилам (программам, задаваемым последовательностью Ψi) упорядоченное (описываемое x) пространственное распределение материи. Это упорядоченное пространственное распределение материи и есть новая структура, определяемая внутренними параметрами ξi. В дальнейшем предстоит детальная разработка предлагаемой концепции информации в ее увязке со структурными кодами [15-20] вещества, процессами упорядочения [21-26] и самоорганизации [5,6, 27-30].
Библиографическая ссылка
Таланов В.М. ИНФОРМАЦИЯ КАК ВНУТРЕННИЙ ПАРАМЕТР, ХАРАКТЕРИЗУЮЩИЙ СТРУКТУРНУЮ ОРГАНИЗАЦИЮ ВЕЩЕСТВА // Современные наукоемкие технологии. – 2013. – № 12. – С. 87-89;URL: https://top-technologies.ru/ru/article/view?id=33603 (дата обращения: 23.11.2024).