Scientific journal
Modern high technologies
ISSN 1812-7320
"Перечень" ВАК
ИФ РИНЦ = 0,940

DEFINITION OF AMOUNT OF INFORMATION ENTROPY IN STRUCTURE OF THE TECHNICAL SYSTEM BY METHOD OF THE MINIMUM WAYS

Dulesov A.S. 1 Karandeev D.Yu. 1 Kondrat N.N. 1
1 Associate Professor Department of Physical Culture and Sports Federal State Budgett Educational Institution of Higher Education Khakas State University named N.F. Katanov
The method by means of which the amount of information containing in structure of technical system is defined is presented. For realization of a method the explanations concerning preparation of basic data are given. Data are formed on the basis of the made structure and its indicators. Probabilities of conditions of system‘s elements which are shared on a qualitative character on the two opposite states are indicators of structure. Mathematical expressions are constructed, and the procedure of calculation of determination of information entropy is presented. The way of construction of series-parallel structures by method of the minimum ways is the basis for a method. The example on which work of this method is shown is given. The offered method allows on the basis of comparing the values of entropy opposite states to choose system with higher level of efficiency or structural reliability. The received results were compared to the data obtained by method of search of state of system.
information measure
information entropy
structure of technical system

Многие технические системы имеют явно выраженные структуры с вероятностными характеристиками. Отображение структуры, например, в виде графа, применение математических инструментов определения количества информации, позволяет оценивать состояния системы. По величине информации можно судить о том, насколько информативна система. О количественном содержании информации в технической системе можно ознакомиться в работах [1, 2, 8].

Элементы системы связаны между собой определенным образом. И от того, какие требования предъявляются к системным элементам, как они связаны между собой, в каких состояниях они находятся в тот или иной момент времени, зависит не только топология структуры, но и количество информации. Например, рассматривая структурную надежность системы, разделяют состояния элементов на работоспособное и неработоспособное, что предопределяет необходимость рассчитывать количество информации (информационной энтропии) по качественному признаку [5].

Определение количества энтропии требует построения моделей выявления совместной и условной энтропий при рассмотрении событий, обусловливающих вероятностные состояния элементов. Такие модели предложены в [3, 4]. Реализация моделей требует разработки методов. Одним из таких методов можно считать метод перебора состояний (предложенный в [6]), метод эквивалентирования последовательно-параллельных структур (представленный в [7]). Однако такие методы неприменимы для сложнозамкнутых и многоэлементных структур. Поэтому востребован метод, который базировался бы на способе построения минимальных путей от начала к концу структуры.

Далее предложим к рассмотрению математический метод минимальных путей, который позволит выполнить расчет количества энтропии, присущей противоположным (непересекающимся) вероятностным состояниям элементов системы.

Предварительная подготовка данных востребована для расчета количества энтропии и включает в себя построение (например, согласно [3, 4]) статистического ансамбля. В качестве статистических показателей могут присутствовать: время, в течение которого элемент находился в том или ином состоянии; частота появления тех или иных событий и др. Эти показатели позволяют рассчитать вероятности pi нахождения элемента i в рассматриваемом состоянии и найти собственное значение информации элемента: dul01.wmf. Логарифм определения величины Ii в битах имеет основание, равное 2, что свидетельствует о рассмотрении двух противоположных состояний (например, работоспособное и неработоспособное, рассматриваемые при анализе структурной надежности технической системы). Поэтому в нашей задаче будем учитывать только 2 противоположных состояния, в предположении о наличии качественной составляющей, касающейся необходимости разделения значений собственных (частных) информаций Ii на две составляющие. Собственная информация с учетом её разделения на составляющие позволяет определить информационную (статистическую) энтропию по Шеннону. Так для одного элемента i энтропия определится по выражению:

dul02a.wmf

dul02b.wmf (1)

при условии pi + qi = 1. Здесь pi и qi соответственно, – вероятность работоспособного и неработоспособного состояний элемента i.

Для всей системы в целом можно получить суммарную энтропию:

dul03a.wmf

dul03b.wmf (2)

где N – число элементов в структуре системы. При всех pi = qi = 0,5, по (2) получим энтропию: HΣ = N.

Применение (2) дает частное решение, поскольку не учитывается топология структуры, и самое главное, нет возможности выделить энтропию противоположных состояний для последующего более полного анализа. Чтобы устранить данный недостаток, востребован предлагаемый в работе метод, позволяющий рассчитывать качественные составляющие суммарной энтропии. Имея на предварительном этапе предобработанные данные, можно приступить к определению энтропии методом минимальных путей.

Определение энтропии методом минимальных путей. Для определения энтропии каждого из двух противоположных (непересекающихся) множеств состояний элементов необходимо, с одной стороны, иметь число элементов N (состояния которых рассматриваются как независимые), с другой – топологию структуры.

Метод предполагает рассмотрение структуры, как правило, замкнутой, с обозначением в ней начала (исходной точки) и конца (конечной точки) для поиска и выделения минимальных путей. Методика построения минимальных путей известна, с ней можно ознакомиться в материалах, представленных в сети Интернет.

Сформированные пути в виде последовательно-параллельной структуры являются основанием для применения предлагаемого метода, который базируется на эквивалентных преобразованиях [7]. Предложим далее порядок и математические выражения для определения энтропии вновь созданной структуры системы. Отметим дополнительно: представленные далее в выражениях подстрочные символы справедливы при условии нумерации путей и перенумерации элементов каждого пути.

1. Рассчитывается энтропия по каждому из N элементов согласно (1):

– для работоспособного состояния элемента i –

dul04.wmf; (3)

– для неработоспособного состояния элемента i –

dul05.wmf. (4)

2. Для каждого пути определяются вероятности:

– работоспособного состояния элементов пути j –

dul06.wmf, (5)

где pk – вероятность работоспособного состояния элемента k, пути j, nj – количество элементов, входящих в путь;

– неработоспособного состояния элементов пути j –

dul07.wmf. (6)

3. По каждому из путей определяются составляющие энтропии:

– работоспособного состояния элементов пути j –

dul08.wmf; (7)

– неработоспособного состояния элементов пути j –

dul09.wmf. (8)

4. Определение энтропии системы:

– работоспособного состояния –

dul10.wmf, (9)

где m – количество путей;

– неработоспособного состояния –

dul11a.wmf

dul11b.wmf, (10)

где i – порядковый номер элемента структуры системы.

При реализации данного метода имеется один нюанс, а именно: последовательно-параллельная структура, состоящая из путей, не является эквивалентом исходной структуры. Следовательно, появляются проблемы в получении приемлемого решения. Во-первых, количество элементов в последовательно-параллельной структуре будет больше чем в исходной структуре, во-вторых – из-за того, что учитываются только минимальные пути, результат будет с погрешностью по отношению к результатам, полученным методом перебора всех состояний элементов. Первая проблема имеет решение, вторая зависит от уже сложившегося на практике подхода к построению последовательно-параллельных структур.

Разрешение первой проблемы заключается в следующем. Каждый из элементов в созданной последовательно-параллельной структуре будет дублирован один и более раз. Поскольку такая структура является только расчетной, то количество информации в ней должно быть равно количеству энтропии исходной структуры. Тогда определить энтропию элемента k (вновь созданной структуры) следует по выражениям:

dul12.wmf;

dul13.wmf, (11)

где l – количество повторений элемента i во вновь построенной структуре, i – порядковый номер элемента исходной структуры.

Пример. Следует определить количество энтропии работоспособного и неработоспособного состояний мостиковой структуры, представленной на рис. 1.

dules1.wmf

Рис. 1. Мостиковая структура (схема)

Согласно рис. 1 множество всех состояний элементов 52 = 32. Работоспособных состояний или путей – 16: {13}, {24}, {154}, {253}, {134}, {243}, {123}, {124}, {524}, {123}, {1524}, {1523}, {1534}, {2534}, {1324}, {12345}. Из них минимальными являются пути {13}, {24}, {154}, {253}, количество которых – m = 4. Последовательно-параллельная структура из минимальных путей представлена на рис. 2.

dules2.wmf

Рис. 2. Последовательно-параллельная структура (схема)

Примем значения вероятностей: pi = 0,9; qi = 1 – pi = 0,1. Такие значения вероятностей приняты исходя из возможности сопоставления полученных значений, с результатами, представленными в [7].

Порядок выполнения расчетов выполним без перенумерации элементов каждого из путей, представленных на рис. 2.

1. Определим по (3) и (4) энтропию элементов исходной схемы с N = 5 (рис. 1):

– для работоспособного состояния –

dul14.wmf,

– для неработоспособного состояния –

dul15.wmf.

Поскольку в последовательно-параллельной структуре (рис. 2) элементы дублированы (каждый элемент дублирован дважды – l = 2), то для определения энтропии её элементов применим выражения (11):

dul16.wmf

dul17.wmf

2. По выражениям (5) и (6) определяем для каждого из путей вероятности:

– работоспособного состояния: dul18.wmf, dul19.wmf,

dul20.wmf, dul21.wmf,

– неработоспособного состояния: dul22.wmf, dul23.wmf, dul24.wmf, dul25.wmf.

3. Согласно (7) и (8) определим составляющие энтропии каждого пути:

– работоспособного состояния:

dul26.wmf,

dul27.wmf,

dul28.wmf

dul29.wmf,

dul30.wmf

dul31.wmf,

– неработоспособного состояния:

dul32.wmf

dul33.wmf,

dul34.wmf

dul35.wmf,

dul36.wmf

dul37.wmf,

dul38.wmf

dul39.wmf.

4. Определение по выражениям (9) и (10) энтропии системы:

– работоспособного состояния:

dul40.wmf

dul41.wmf

dul42.wmf

dul43.wmf

– неработоспособного состояния:

dul44.wmf

dul45.wmf

dul46.wmf

dul47.wmf.

Из расчетов видно, что энтропия работоспособного состояния преобладает над энтропией противоположного состояния, поскольку вероятность работоспособного состояния выше, чем неработоспособного.

Сравним аналогичные результаты с представленными в работе [7]: Н(Р) = 2,169; Н(Q) = 0,176; суммарная энтропия – НΣ = Н(Р) + Н(Q) = 2,345.

Поскольку оба сравниваемых метода построены на предположении о независимости событий (возникающих в системе), то полученные по ним суммарные энтропии совпали, подтверждая тем самым справедливость предлагаемого метода. Однако между энтропиями состояний существует разница (между Н(Р) – 6,7 %, между Н(Q) – 8,8 раз). Ошибка обусловлена способом построения минимальных путей, без учета множества других путей. Представленный метод можно рекомендовать для систем с высоким показателем работоспособности элементов.

Заключение

Основное назначение данного метода – определение энтропии двух противоположных состояний системы. Результаты могут быть получены для последовательно-параллельных структур систем и для замкнутых структур через их преобразование по методу минимальных путей. Полученное количество энтропии отражает качественное и количественное содержание информации. С помощью полученных математических выражений можно рассчитывать количество информации отдельно по каждому из рассматриваемых противоположных (например, для работоспособного и неработоспособного) состояний системы. Интеграция данного метода в среду оценки состояния системы (например, её структурной надежности) через меру неопределенности информации позволит выполнить сопоставительные оценки между противоположными состояниями системы.

Рассматривая различные варианты структур системы, используя предлагаемый метод, можно выбрать более надежную или эффективную структуру с позиции наличия в ней определенного количества информационной энтропии.

Работа выполнена при поддержке гранта РФФИ № 15-08-01473а.