Научный журнал
Современные наукоемкие технологии
ISSN 1812-7320
"Перечень" ВАК
ИФ РИНЦ = 0,940

АЛГОРИТМ ПРИБЛИЖЕННОГО ОЦЕНИВАНИЯ С ПОМОЩЬЮ МЕТОДА НАИМЕНЬШИХ КВАДРАТОВ ДВУХСЛОЙНЫХ НЕЭЛЕМЕНТАРНЫХ ЛИНЕЙНЫХ РЕГРЕССИЙ С ДВУМЯ ОБЪЯСНЯЮЩИМИ ПЕРЕМЕННЫМИ

Базилевский М.П. 1
1 ФГБОУ ВО «Иркутский государственный университет путей сообщения»
Аннотация. Статья посвящена исследованию новых спецификаций регрессионных моделей. Рассмотрены известные модульные линейные регрессии, в которых объясняющие переменные преобразуются с помощью операции модуль, и неэлементарные линейные регрессии, в которых объясняющие переменные преобразуются с помощью бинарных операций min и max. С использованием вместо объясняющих переменных в этих спецификациях повторно модульных и неэлементарных конструкций введено 8 новых математических моделей. Эти модели названы двухслойными неэлементарными линейными регрессиями. Разработан универсальный алгоритм «OLS-mod&min» приближенного оценивания двухслойных регрессий с помощью метода наименьших квадратов. Результаты работы этого алгоритма зависят от выбора областей возможных значений неизвестных параметров на первом слое двухслойной регрессии и количества разбиений этих областей. Доказано, что если на втором слое двухслойной регрессии используется операция модуль, то при выборе большого числа точек разбиения полученные методом наименьших квадратов оценки будут близки к оптимальным. Если на втором слое используется бинарная операция, то близость к оптимуму гарантирована не всегда. Проведен вычислительный эксперимент, подтверждающий справедливость полученных теоретических результатов, которые послужат в будущем фундаментом для оценивания двухслойных неэлементарных линейных регрессий с любым числом объясняющих переменных.
неэлементарная линейная регрессия
модульная линейная регрессия
метод наименьших квадратов
двухслойная нейронная сеть
коэффициент детерминации
1. Janiesch C., Zschech P., Heinrich K. Machine learning and deep learning // Electronic Markets. 2021. Vol. 31. No. 3. P. 685-695.
2. Белозеров И.А., Судаков В.А. Исследование моделей машинного обучения для сегментации медицинских изображений // Препринты Института прикладной математики им. М.В. Келдыша РАН. 2022. № 37. 15 c.
3. Майоров К.Н. Применение алгоритмов машинного обучения для решения задач нефтегазовой сферы // Интеллектуальные системы в производстве. 2021. Т. 19, № 3. С. 55-64.
4. Энгель Е.А., Энгель Н.Е. Методы машинного обучения для задач прогнозирования и максимизации выработки электроэнергии солнечной электростанции // Вестник ВГУ. Серия: Системный анализ и информационные технологии. 2023. № 2. С. 146-170.
5. Montgomery D.C., Peck E.A., Vining G.G. Introduction to linear regression analysis. John Wiley & Sons, 2021. 704 p.
6. Базилевский М.П. Оценивание модульных линейных регрессионных моделей с помощью метода наименьших модулей // Вестник Пермского национального исследовательского политехнического университета. 2023. № 45. С. 130-146.
7. Базилевский М.П. Программное обеспечение для оценивания модульных линейных регрессий // Информационные и математические технологии в науке и управлении. 2023. № 3 (31). С. 136-146.
8. Базилевский М.П. Оценивание параметров неэлементарных линейных регрессий методом наименьших квадратов // Экономика. Информатика. 2023. Т. 50, № 2. С. 367-379.
9. Мазуров Б.Т., Падве В.А. Метод наименьших квадратов (статика, динамика, модели с уточняемой структурой) // Вестник СГУГиТ. 2017. Т. 22, № 2. С. 22-35.
10. Носков С.И. Идентификация параметров простой формы вложенной кусочно-линейной регрессии // Ученые записки Комсомольского-на-Амуре государственного технического университета. 2023. № 3 (67). С. 57-61.
11. Кремер Н.Ш. Теория вероятностей и математическая статистика. М.: ЮНИТИ-ДАНА, 2004. 573 с

В настоящее время методы машинного обучения [1] находят широкое применение при решении проблем в самых разных сферах человеческой деятельности: в медицине [2], в нефтегазовой сфере [3], в энергетике [4] и др. К одному из методов машинного обучения относится регрессионный анализ [5, с. 30]. Выбор линейной функции регрессии для описания функционирования исследуемого явления или процесса лишь в редких случаях приводит к адекватным результатам. Поэтому возникает необходимость в выборе и оценивании нелинейных форм связи между переменными. В работах [6, 7] автором предложены модульные линейные регрессии, в которых регрессорами выступают объясняющие переменные, преобразованные с помощью операции модуль. А например, в [8] рассмотрены неэлементарные линейные регрессии (НЛР), в которых пары объясняющих переменных преобразуются с помощью бинарных операций min и max. Для оценивания модульных регрессий и НЛР с помощью метода наименьших квадратов (МНК) [9] в [6–8] были разработаны специальные алгоритмы.

Цель исследования состоит в разработке новых структурных спецификаций регрессионных моделей на основе слияния модульных регрессий и НЛР, а также в разработке алгоритма их оценивания с помощью МНК.

Материал и методы исследования

Рассмотрим модульную линейную по факторам регрессию с двумя объясняющими переменными [6, 7] вида:

missing image file, i = 1,n, (1)

где n – объем выборки; yi – i-е значение объясняемой переменной y; xi1, xi2 – i-е значения объясняющих переменных x1 и x2; α0, α1, α2, λ1, λ2 – неизвестные параметры; εi – i-я ошибка аппроксимации. Эта модель относится к нелинейным по оцениваемым параметрам.

Известно [7], что оптимальные МНК-оценки missing image file и missing image file параметров λ1 и λ2 модульной регрессии (1) принадлежат промежуткам missing image file, missing image file, где missing image file, missing image file, missing image file, missing image file – минимальные и максимальные значения переменных x1 и x2. В связи с этим алгоритм «OLS-mod» приближенного МНК-оценивания модульной регрессии (1) состоит из 3 следующих шагов.

Шаг 1. Найти missing image file, missing image file, missing image file, missing image file.

Шаг 2. На сторонах прямоугольника missing image file выбрать равномерно p точек, с помощью которых внутри области D сформировать сеть из (p + 2)2 точек.

Шаг 3. Перебирая все точки сформированной сети, оценить все возможные регрессии (1) с помощью МНК и выбрать из них уравнение с минимальной величиной суммы квадратов остатков.

Чем больше величина p, тем ближе полученные с помощью алгоритма «OLS-mod» МНК-оценки к оптимальным.

Рассмотрим неэлементарную линейную по факторам регрессию (НЛР) [8] с двумя объясняющими переменными и бинарной операцией min вида:

missing image file, i = 1,n, (2)

где k – неизвестный параметр; missing image file, i = 1,n.

Известно, что оптимальная МНК-оценка k* параметра k НЛР (2) принадлежит промежутку kнижн ≤ k* ≤ kверхн, где

kнижн missing image file,

kверхн missing image file.

Поэтому алгоритм «OLS-min» приближенного МНК-оценивания НЛР (2) формулируется следующим образом.

Шаг 1. Найти kнижн, kверхн.

Шаг 2. На промежутке kнижн ≤ k ≤ kверхн выбрать равномерно р точек.

Шаг 3. Перебирая все точки промежутка, оценить все возможные НЛР (2) с помощью МНК и выбрать из них уравнение с минимальной величиной суммы квадратов остатков.

Используя вместо объясняющих переменных в НЛР (2) модульные и неэлементарные конструкции, получим 4 новые спецификации регрессионных моделей:

missing image file, i = 1,n, (3)

missing image file, i = 1,n, (4)

missing image file, i = 1,n, (5)

missing image file, i = 1,n, (6)

где k1, k2– неизвестные параметры.

Структура каждой из моделей (3) – (6) схожа со структурой двухслойной нейронной сети: второй скрытый слой содержит бинарную операцию min, а в первом скрытом слое для каждой переменной комбинируются операция min и модуль. Поэтому назовем модели (3) – (6) двухслойными НЛР с двумя переменными. Как видно, каждая из этих моделей имеет по 5 неизвестных параметров и обобщает НЛР (2).

Стоит отметить, что двухслойная НЛР (4) по внешнему виду схожа с так называемой вложенной кусочно-линейной регрессией [10], оцениваемой с помощью метода наименьших модулей. Разница между ними в том, что в модели (4) присутствуют дополнительные неизвестные параметры k, α0, α1.

Аналогично, используя вместо объясняющих переменных в модульной регрессии (1) модульные и неэлементарные конструкции, получим еще 4 новые спецификации регрессионных моделей:

missing image file, i = 1,n, (7)

missing image file, i = 1,n, (8)

missing image file, i = 1,n, (9)

missing image file, i = 1,n, (10)

где φ1, φ2 – неизвестные параметры.

Также будем называть модели (7) – (10) двухслойными НЛР с двумя переменными. Во втором их скрытом слое содержатся операции модуль, а в первом – операции min и модуль. Каждая из этих моделей имеет уже по 6 неизвестных параметров.

Введем основанный на алгоритмах «OLS-mod» и «OLS-min» универсальный алгоритм «OLS-mod&min» приближенного МНК оценивания двухслойных НЛР (3) – (10).

Шаг 1. В зависимости от выбранной модели определить области возможных значений неизвестных параметров на первом скрытом слое. При этом возможна одна из следующих четырех ситуаций:

1) если переменные x1 и x2 преобразуются операцией модуль, то область

missing image file; (11)

2) если переменная x1 преобразуется операцией модуль, а переменная x2 – min, то

missing image file kнижн ≤ k2 ≤ kверхн; (12)

3) если переменная x1 преобразуется операцией min, а переменная x2 – модуль, то

D3: kнижн ≤ k1 ≤ kверхн, missing image file; (13)

4) если переменные x1 и x2 преобразуются операцией min, то

D4: kнижн ≤ k1 ≤ kверхн, kнижн ≤ k2 ≤ kверхн. (14)

В одном из этих прямоугольников сформировать сеть точек размера (p + 2)×(p + 2).

Шаг 2. Используя сформированную на первом слое сеть, для каждой ее точки сформировать в зависимости от формы модели области возможных значений неизвестных параметров на втором скрытом слое. Пусть missing image file, i = 1,n, если на первом слое выбрана операция модуль для x1; missing image file, i = 1,n, если на первом слое выбрана операция min для x1; missing image file, i = 1,n, если на первом слое выбрана операция модуль для x2; missing image file, i = 1,n, если на первом слое выбрана операция min для x2. Возможна одна из следующих двух ситуаций.

1. Если выбрана одна из моделей (3) – (6), то каждой точке сформированной на предыдущем шаге сети при условиях missing image file, i = 1,n поставить в соответствие промежуток kнижн ≤ k ≤ kверхн, где

kнижн missing image file,

kверхн missing image file,

на котором выбрать равномерно p точек. Перебирая все (p + 2)3 точек полученного трехмерного массива, оценить все возможные НЛР с помощью МНК и выбрать из них модель с минимальной величиной суммы квадратов остатков.

2. Если выбрана одна из моделей (7) – (10), то каждой точке сформированной на предыдущем шаге сети поставить в соответствие область missing image file, где missing image file, missing image file, missing image file, missing image file – минимальные и максимальные значения переменных z1 и z2, в которой сформировать сеть точек размера (p + 2)×(p + 2). Перебирая все (p + 2)4 точек полученного четырехмерного массива, оценить все возможные НЛР с помощью МНК и выбрать из них регрессию с минимальной величиной суммы квадратов остатков.

К сожалению, идентификация областей неизвестных параметров на первом скрытом слое по формулам (11) – (14) в алгоритме «OLS-mod&min» гарантирует нахождение близких к оптимальным МНК-оценок при большом p не для всех из моделей (3) – (10). Покажем далее, что такая гарантия дается только для регрессий (7) – (10).

Рассмотрим двухслойную модульную модель с одной переменной вида:

missing image file, i = 1,n. (15)

Пусть missing image file. Возьмем с этого промежутка случайным образом два любых различных числа, например λ1 = λ#, λ1 = λ# + Δ, где Δ – разница между этими числами. Тогда модель (15) в этих точках принимает формы:

missing image file, i = 1,n, (16)

missing image file, i = 1,n. (17)

Если в (17) переобозначить величину (Δ – φ1) любой переменной, то получим модель (16). Из этого следует, что выбор любой точки с промежутка missing image file не меняет величину суммы квадратов остатков регрессии (15) в точке оптимума.

Пусть missing image file. Также возьмем с этого промежутка два любых числа λ1 = λ# и λ1 = λ# + Δ. Тогда модель (15) в этих точках принимает формы:

missing image file, i = 1,n, (18)

missing image file, i = 1,n. (19)

Если в (19) переобозначить величину (Δ + φ1) любой переменной, то получим модель (18). Следовательно, выбор любой точки с промежутка missing image file не влияет на величину суммы квадратов остатков регрессии (15) в точке оптимума. Таким образом, имеет смысл оценивать модель (15) только при missing image file.

Рассмотрим двухслойную неэлементарную модель с одной переменной вида:

missing image file, i = 1,n.(20)

Пусть k1 ≥ kверхн. Тогда модель (20) принимает форму missing image file, i = 1,n. Из этого следует, что выбор любой точки с промежутка k1 ≥ kверхн не меняет величину суммы квадратов остатков регрессии (20) в точке оптимума.

Пусть k1 ≤ kнижн. Возьмем с этого промежутка случайным образом два любых различных числа, например k1 = k#, k1 = k# ∙ Δ, Δ > 0. Тогда модель (20) в этих точках принимает формы:

missing image file, i = 1,n, (21)

missing image file, i = 1,n. (22)

Если в (22) вынести за знак модуля Δ и переобозначить величины α1∙Δ и φ1/Δ любыми переменными, то получим модель (21). Следовательно, выбор любой точки с промежутка k1 ≤ kнижн не влияет на величину суммы квадратов остатков регрессии (20) в точке оптимума. Таким образом, имеет смысл оценивать модель (20) только при kнижн ≤ k1 ≤ kверхн.

Представленные рассуждения позволяют сделать вывод, что оптимальные оценки параметров первого скрытого слоя двухслойных НЛР (7) – (10) принадлежат промежуткам (11) – (14). Поэтому, чем больше выбрано значение p, тем ближе полученные с помощью алгоритма «OLS-mod&min» МНК-оценки моделей (7) – (10) к оптимальным.

Результаты исследования и их обсуждение

Для проведения вычислительного эксперимента были использованы статистические данные из источника [11, с. 478] о сменной добыче угля на одного рабочего y (в тоннах), мощности пласта x1 (в метрах) и уровне механизации работ x2 (в процентах), характеризующие процесс добычи угля в 10 шахтах.

Сначала по этим данным с помощью МНК была построена линейная регрессия:

missing image file, (23)

затем с использованием программы МОДУЛИР-1 модульная регрессия (1):

missing image file,(24)

после чего с использованием программы НЕЭЛИН НЛР (2) с бинарной операцией min

missing image file. (25)

Коэффициенты детерминации R2 регрессий (23) – (25) равны соответственно 0,8116, 0,8629 и 0,8149.

Предложенный алгоритм «OLS-mod&min» был реализован в виде скрипта на языке hansl пакета Gretl. Сначала с помощью этого скрипта были оценены двухслойные НЛР (3) – (6) с бинарной операцией min на втором слое при p = 50:

missing image file, (26)

missing image file, (27)

missing image file, (28)

missing image file. (29)

Коэффициенты детерминации НЛР (26) – (29) равны соответственно 0,935916, 0,814875, 0,936727, 0,932029.

Затем с помощью скрипта были оценены двухслойные НЛР (7) – (10) с операцией модуль на втором слое при p = 50:

missing image file, (30)

missing image file, (31)

missing image file, (32)

missing image file. (33)

Коэффициенты детерминации НЛР (30) – (33) равны соответственно 0,974875, 0,965205, 0,909793, 0,976162.

Заключение

В работе с использованием бинарной операции min (max) и операции модуль предложено 8 новых спецификаций регрессионных моделей, названных двухслойными НЛР. Разработан алгоритм их приближенного оценивания с помощью МНК. Успешно проведен вычислительный эксперимент, в ходе которого почти все новые модели, кроме (27), по качеству аппроксимации оказались лучше известных регрессий. При этом точнее оказались двухслойные НЛР с модулем на втором слое.


Библиографическая ссылка

Базилевский М.П. АЛГОРИТМ ПРИБЛИЖЕННОГО ОЦЕНИВАНИЯ С ПОМОЩЬЮ МЕТОДА НАИМЕНЬШИХ КВАДРАТОВ ДВУХСЛОЙНЫХ НЕЭЛЕМЕНТАРНЫХ ЛИНЕЙНЫХ РЕГРЕССИЙ С ДВУМЯ ОБЪЯСНЯЮЩИМИ ПЕРЕМЕННЫМИ // Современные наукоемкие технологии. – 2024. – № 4. – С. 10-14;
URL: https://top-technologies.ru/ru/article/view?id=39966 (дата обращения: 19.05.2024).

Предлагаем вашему вниманию журналы, издающиеся в издательстве «Академия Естествознания»
(Высокий импакт-фактор РИНЦ, тематика журналов охватывает все научные направления)

«Фундаментальные исследования» список ВАК ИФ РИНЦ = 1,674