Scientific journal
Modern high technologies
ISSN 1812-7320
"Перечень" ВАК
ИФ РИНЦ = 0,940

В настоящее время существуют многочисленные варианты нейронных сетей, обладающих свойствами универсальных аппроксиматоров функций многих переменных. Нейронные сети построены таким образом, что могут вычислять линейные функции, нелинейные функции одной переменной, а также всевозможные суперпозиции - функции от функций, получаемые при каскадном соединении сетей. Работа такого аппроксиматора построена на основе теоремы Колмогорова, согласно которой любая непрерывная функция n переменных f может быть представима в виде

 (1)

где функции hq(u) непрерывные функции одной переменной, а функции - фиксированные возрастающие, непрерывные, определенные на I = [0, 1] функции.

Основной проблемой, связанной с реализацией сетевых структур (1) является то, что они не однородны, то есть не имеют фиксированных элементов и настраиваемых параметров: функции h в узлах сетей зависят от аппроксимируемой функции f.

Чтобы упростить процесс аппроксимации, заменим достаточно сложную гиперповерхность, соответствующую уравнению (1), гиперплоскостью, описываемой уравнением

 (2)

где ai и b - произвольные константы ().

Если число исходных данных растет, то уравнение (2) преобразуется в систему линейных неоднородных уравнений. Адекватность модели (2) будет определяться тем, имеет ли решение неоднородная система линейных уравнений, составленная из алгебраических линейных уравнений (2) [2].

для определения n коэффициентов уравнения (2) используются n векторов экспериментальных данных.

В реальных системах классификации число векторов экспериментальных данных m превосходит число коэффициентов ai в уравнении (2), то есть m > n и система линейных алгебраических уравнений переопределена и, следовательно, не имеет нетривиального решения. В этом случае компоненты вектора B целесообразно представлять в виде нечетких чисел, описываемых функциями принадлежности с базовой переменной, лежащей в диапазоне ±ε. Тогда область признакового пространства, соответствующая искомому классу, будет заключена между двумя коллинеарными плоскостями, отстоящими друг от друга на расстояние ≤ ε·2. В наиболее благоприятном случае, все векторы обучающей выборки лежат на гиперплоскости, заданной вектором A = (a1 a2 ... am), detX = 0 и ε = 0.

от системы равенств (2) перейдем к системе неравенств

 (3)

Система неравенств (3) описывает множество коллинеарных гиперплоскостей, расстояние между которыми не превышает величины ε.

От системы коллинеарных гиперплоскостей, можно перейти к системе неколлинеарных гиперплоскостей расщепив систему уравнений (3) на несколько подсистем коллинеарных гиперплоскостей путем уменьшения расстояний между коллинеарными гиперплоскостями. Очевидно, чем больше число гиперплоскостей, на которое расщепляется исходная гиперплоскость, тем более сложной может быть форма аппроксимируемой функции.

Расщепим исходную систему (3) на λ неколлинеарных гиперплоскостей. Выбор величины ε определяется расстоянием между классами. Если принять, что расстояние между диагностируемым классом и альтернативным классом равно единице и все объекты этих классов размещены внутри гиперсфер диаметром единица, то величину ε определяем из уравнения

 (4)

Из этой формулы следует, что выбор ε является следствием компромисса между увеличением числа нейронов в скрытом слое и увеличением точности аппроксимации.

Так как сеть настроена на один класс - Â, то при поступлении на ее входы компонентов вектора Xj, соответствующего этому классу, на выходах нейронов второго слоя появятся числа, близкие к нулю. При этом, наиболее близким к нулю будет выход yr того нейрона, расстояние между гиперплоскостью которого и точкой Xj минимально. После этого достаточно выбрать минимальное значение из всех компонентов вектора состояния внутреннего слоя (y1 y2 ....yr...yλ), которое будет характеризовать степень близости вектора X к классу .

Так как выходы (y1 y2 ....yr...yλ) однозначно связаны (через соответствующие гиперплоскости) с входным вектором, нелинейные преобразования назовем функциями принадлежности к искомому классу по базовой переменной, соответствующей выходу второго слоя. В частом случае, эти нелинейные преобразования не зависят от выхода нейрона внутреннего слоя.

В соответствии с уравнениями (3) и (4), а также обозначив функцию «нечеткое или»

 (5)

а выходы нейронов внутреннего слоя

 

аппроксимирующую модель для сетевой структуры выразим следующим уравнением

 (6)

уравнение (6) имеет запись, аналогичную уравнению (1), но лишено основных его недостатков: все функции, входящие в него, не зависят от аппроксимируемой функции и, следовательно, эта аппроксимация может быть достаточно легко реализована посредством обучаемых нейронных сетей, например, в среде Маtlab 7.10 (R2010a) со встроенными пакетами Neural Network Toolbox и Fuzzy Logic Тооlbox [3].

Работа выполнена в рамках реализации федеральной целевой программы «Научные и научно-педагогические кадры инновационной России» на 2009-2013 годы (контракт № 424).

Список литературы

  1. Макаренко Н.Г. Эмбедология и нейропрогноз // Научная сессия МИФИ-2003. V Всероссийская научно-техническая конференция «Нейроинформатика-2003»: Лекции по нейроинформатике. Часть 1. - м.: МИФИ, 2003. С. 86-141.
  2. Головина Л.И. Линейная алгебра и некоторые ее приложения: Учебное пособие для вузов. - М.: Наука, Главная редакция физико-математической литературы, 1985. - 392 с.
  3. Филист С.А. Способ моделирования нечетких нейросетевых моделей в пакете MATLAB для биомедицинских приложений / С.А. Филист, В.В. Жилин, О.В. Шаталова и др. // Медицинская техника. - 2008. - №2. - С. 15-18.