Разработка методов идентификации интервальных нейронных сетей в информационно-аналитических системах при управлении объектами с неопределенностью тема диссертации и автореферата по ВАК РФ 05.13.01, кандидат наук Полозова Юлия Евгеньевна
- Специальность ВАК РФ05.13.01
- Количество страниц 124
Оглавление диссертации кандидат наук Полозова Юлия Евгеньевна
1.2.1 Интервальные числа
1.2.2 Интервальные методы глобальной оптимизации
1.3 Интервальная нейронная сеть
1.4 Гарантированность оценок интервальных вычислений
1.5 Обратная задача
1.5.1 Обращение множеств
1.5.2 Инверсия нейронной сети
1.6 Нейроуправление
1.7 Применение интервальных нейронных сетей при решении задач с неопределенностями
1.8 Выводы
2 Разработка методов идентификации интервальных нейронных сетей
2.1 Модификация функционала качества обучения интервальных нейронных сетей
2.2 Дуальнопараметрическая нейронная сеть
2.3 Алгоритм обучения дуальнопараметрических нейронных сетей на основе процедуры расширения интервалов
2.4 Применение алгоритма Б1У1Л для обучения дуальнопарамет-рических нейронных сетей
2.5 Алгоритм структурной идентификации дуальнопараметриче-ских нейронных сетей
2.6 Алгоритм структурной идентификации дуальнопараметриче-ских нейронных сетей с разными функциями активации
2.7 Устойчивость результатов интервального нейросетевого моделирования
2.8 Алгоритм решения задачи управления с использованием ду-альнопараметрических нейронных сетей
2.9 Выводы
3 Разработка программных модулей информационно-аналитической системы
3.1 Программное обеспечение
3.1.1 Программное обеспечение, необходимое для функционирования пакета
3.1.2 Логическая структура программы
3.1.3 Запуск программы
3.1.4 Входные и выходные данные
3.1.5 Особенности технической реализации
3.1.6 Исследование эффективности алгоритмов программно-аналитических модулей
3.2 Исследование аппроксимационных способностей интервальных нейронных сетей
3.3 Исследование эффективности модифицированного функционала качества
3.4 Сравнение эффективности интервальных и дуальнопарамет-рических нейронных сетей
3.5 Исследование эффективности процедуры расширения интервалов
3.6 Исследование эффективности процедуры на основе алгоритма Б1У1Л
3.7 Исследование эффективности алгоритма структурной идентификации
3.8 Исследование эффективности алгоритма структурной идентификации с различными функциями активации
3.9 Методика проведения экспериментов по сравнению эффективности алгоритмов идентификации
3.10 Сравнительный анализ алгоритмов
3.11 Выводы
4 Применение интервальных нейронных сетей при управлении
объектами с неопределенностью
4.1 Примеры задач управления объектами в системах с неопределенностью
4.1.1 Калибровка средств измерений
4.1.2 Управление качеством литых слябов
4.2 Применение интервальных нейронных сетей в калибровке средств измерений
4.2.1 Условия проведения экспериментов
4.2.2 Анализ экспериментальных данных
4.3 Применение интервальных нейронных сетей в управлении качеством литых слябов
4.3.1 Исходные данные
4.3.2 Результаты численного моделирования
4.4 Выводы
Заключение
Библиографический список
Приложения
Рекомендованный список диссертаций по специальности «Системный анализ, управление и обработка информации (по отраслям)», 05.13.01 шифр ВАК
Суперпозиционное линейно-нелинейное нейроструктурное моделирование2011 год, доктор технических наук Сараев, Павел Викторович
Нейросетевое моделирование и оптимизация многоэтапных процессов в условиях зашумленности исходных данных2013 год, кандидат технических наук Коротков, Евгений Алексеевич
Робастная стабилизация динамических систем с использованием нейросетевых моделей и модулярных регуляторов2009 год, кандидат технических наук Рудакова, Татьяна Анатольевна
Синтез адаптивных систем оптимального управления мехатронными станочными модулями2005 год, доктор технических наук Лютов, Алексей Германович
Адаптивное робастное управление в l1 постановке1998 год, доктор физико-математических наук Соколов, Виктор Федорович
Введение диссертации (часть автореферата) на тему «Разработка методов идентификации интервальных нейронных сетей в информационно-аналитических системах при управлении объектами с неопределенностью»
Введение
Управление сложными объектами в технических системах осуществляется, в том числе, на основе информации, полученной от многочисленных средств измерений и измерительных модулей, входящих в состав этих систем. Однако большое количество таких систем функционирует в условиях неопределенности. Эта неопределенность может быть обусловлена рядом причин, одной из которых является погрешность или неточность измерений. С целью минимизации погрешности проводятся многократные повторные измерения величин в одинаковых условиях с последующей обработкой полученных данных. При этом возможны следующие формы представления результатов обработки: 1) в виде среднего значения, 2) в виде диапазона значений (интервала).
При последующем анализе и выявлении закономерностей по полученным усредненным данным обычно применяются вероятностно-статистические методы. Однако информации об исходных данных не всегда оказывается достаточно для применения вероятностных моделей. В частности, не соблюдаются условия, предъявляемые к данным. Кроме того, в ряде задач, в том числе при прогнозировании, существенным недостатком является тот факт, что результат представляется в виде точечной оценки, тогда как на практике часто нужна интервальная оценка, учитывающая неопределенность полученного прогноза. Построение же доверительных интервалов статистическими методами может оказаться невозможным из-за сложности задачи.
В практике управления использование статистических моделей также не находит широкого применения. Одной из причин является попытка свести сложность нелинейных систем к линейным моделям. Однако используемые в таких моделях переменные и параметры не всегда имеют физический смысл, а приближения часто не обеспечивают достаточной точности для целей управления [1]. В противоположность вероятностно-статистическим моделям, нейронные сети представляют собой нелинейные
системы, поскольку состоят из нелинейных элементов - нейронов, что делает их подходящими для решения задач управления, связанных с наличием нелинейных характеристик.
При анализе данных, представляющих собой диапазоны значений (интервалы), применяются методы интервального анализа. В частности, представляется целесообразным применение интервальных нейронных сетей, в которых имеется хотя бы один интервальный параметр: вход, выход или вес. Как известно, ценность методов интервального анализа состоит в возможности получения гарантированных оценок результатов вычислений. Однако не решалась задача разработки методов и алгоритмов обучения интервальных нейронных сетей в контексте достоверных вычислений.
Поскольку любое измерение сопровождается погрешностью, задачи анализа и обработки интервальных данных возникают, в первую очередь, в сфере метрологического контроля средств измерений. При этом в каждой точке диапазона измерений прибора производится несколько испытаний, а полученные значения подлежат дальнейшему усреднению. Однако представляется целесообразным объединять полученные значения в некоторый интервал с последующей обработкой интервальных чисел.
Таким образом, при управлении сложными объектами с интервальной неопределенностью представляется актуальной задача идентификации интервальных нейронных сетей с возможностью получения гарантированных оценок результатов вычислений.
Степень научной разработанности проблемы. Неопределенность исходных данных, обусловленная погрешностью или неточностью измерений, описывалась статистическими моделями в работах таких ученых, как Дж. Бокс и Г. Дженкинс, С.А. Айвазян, М.Дж. Кендалл и др. Возрастающий интерес к задачам, в которых неопределенность является неотъемлемой частью, обусловил развитие интервального анализа как отдельной математической дисциплины. Приемы и методы интервальных вычислений разарботаны в трудах как отечественных, так и зарубежных ученых, среди которых Ю.И. Шокин, С.П. Шарый, А.П. Вощинин, Б.С. Добронец, Р. Мур, Г. Алефельд, Ю. Херцбергер, Г. Майер, Л. Жолен, М. Кифер, О. Дидри, Э. Вальтер и др.
Сочетание методов интервального анализа с нейросетевой технологией привело к появлению интервальных нейронных сетей как универсального инструмента аппроксимации при работе с данными, содержащими интервальную неопределенность. Интервальные нейронные сети исследовались в работах [2-13] и др. Однако не решалась задача разработки методов и алгоритмов идентификации интервальных неронных сетей, позволяющих гарантировать наличие точного решения в выходном интервале сети, что является отличительной особенностью методов интервального анализа. Разработка такого инструмента представляется перспективной с точки зрения практического применения при управлении сложными объектами с неопределенностью.
Цель и задачи исследования. Цель диссертационной работы заключается в разработке методов структурной и параметрической идентификации интервальных нейронных сетей в составе информационно-аналитической системы при управлении сложными объектами, содержащими интервальную неопределенность, с возможностью получения гарантированных оценок результатов вычислений.
Для достижения поставленной цели решались следующие задачи:
- проведение анализа применения интервальных нейронных сетей для решения задач с интервальными неопределенностями;
- разработка подкласса интервальных нейронных сетей для реализации возможности получения гарантированных оценок результатов вычислений при проведении интервального нейросетевого моделирования и прогнозирования;
- формализация критерия качества идентификации интервальных нейронных сетей;
- разработка алгоритмов структурной и параметрической идентификации предложенного подкласса интервальных нейронных сетей;
- разработка программно-аналитических модулей идентификации интервальных нейронных сетей;
- проведение вычислительных экспериментов с целью анализа эффективности разработанных методов и алгоритмов при управлении сложными объектами с неопределенностью.
Методы исследования. В работе использованы методы идентификации систем, математического моделирования, теории нейронных сетей, теории оптимизации, математической статистики, вычислительных экспериментов, структурного программирования.
Научная новизна. В работе получены следующие результаты, отличающиеся научной новизной:
1. Модифицированный функционал качества обучения интервальных нейронных сетей, отличительной особенностью которого является наличие штрафного коэффициента - уровня толерантности.
2. Алгоритм параметрической идентификации интервальных нейронных сетей, отличающийся использованием методов интервального анализа и позволяющий получить гарантированные оценки результатов вычислений.
3. Подкласс интервальных нейронных сетей - дуальнопараметрические нейронные сети, отличительной особенностью структуры которых является наличие параметров двух типов (интервальных и вещественных), что позволяет повысить эффективность обучения при сохранении возможности получения гарантированных оценок результатов вычислений.
4. Алгоритмы структурной и параметрической идентификации интервальных нейронных сетей предложенного подкласса, отличающиеся использованием интервальных методов оптимизации.
5. Алгоритм решения задачи управления, отличающийся применением дуальнопараметрических нейронных сетей.
6. Программно-аналитические модули идентификации интервальных нейронных сетей, отличительной особенностью которых является реализация разработанных алгоритмов структурной и параметрической идентификации дуальнопараметрических нейронных сетей.
Теоретическая и практическая значимость. Применение разработанных методов и алгоритмов идентификации интервальных нейронных сетей способствует повышению эффективности оценки качества и надежности
при управлении объектами с неопределенностью. В частности, при определении метрологических характеристик средств измерений полученная таким образом информация может служить основанием для принятия решений по управлению системой в смысле ее дальнейшего функционирования, необходимости замены или ремонта отдельных модулей измерений.
Разработанные программно-аналитические модули, в которых реализованы предложенные методы и алгоритмы, могут быть использованы в качестве базовых элементов при проектировании программных комплексов для использования полученных интервальных решений в тех системах, где неопределенность носит интервальный характер.
Положения, выносимые на защиту:
- формализация критерия качества идентификации интервальных нейронных сетей;
- подкласс интервальных нейронных сетей, позволяющих получить гарантированные оценки результатов вычислений при моделировании и прогнозировании;
- алгоритмы стуктурной и параметрической идентификации интервальных нейронных сетей дуальнопараметрических нейронных сетей;
- Алгоритм решения задачи управления с применением дуальнопара-метрических нейронных сетей.
Достоверность и научная обоснованность результатов диссертации обеспечивается применением известных методов математического моделирования, разработки и программирования алгоритмов, согласуется с результатами идентификации нейронных сетей, описанными в литературе, и подтверждается прикладными исследованиями на реальных данных.
Апробация результатов. Основные положения диссертационной работы докладывались и обсуждались на международных и всероссийских конференциях: всероссийской школы-конференции молодых ученых «Управление большими системами» (Самара, 2016), международной научно-практической конференции «Измерения: состояние, перспективы развития» (Челябинск, 2017), международной научно-практической конференции «Со-
временные сложные системы управления» (Липецк, 2017), международной научной конференции «Математические методы в технике и технологиях» (Санкт-Петербург, 2017), 4-ой Всероссийской Поспеловской конференции с международным участием «Гибридные и синергетические интеллектуальные системы» (Светлогорск, 2018).
Теоретические положения поддержаны грантами РФФИ «Разработка и исследование методов нейросетевого моделирования и прогнозирования динамики сложных систем» (11-07-97504-р_центр_а), «Совершенствование математического и информационного обеспечения для развития концепции математического ремоделирования статических и динамических систем» (в рамках научного проекта 17-47-480305-р_а).
Глава 1
Исследование методов идентификации и применения интервальных нейронных сетей
1.1 Основные понятия теории искусственных нейронных сетей
1.1.1 Нейронные сети прямого распространения
Основным элементом нейронной сети (НС) является нейрон, преобразующий векторный вход х е Rn в скалярный выход у е R. Каждый входной сигнал Xi,i = 1,...,п характеризуется весовым коэффициентом (весом или синапсом), представляющим собой некоторое число Wi е R. Процесс преобразования входного сигнала состоит из двух этапов [14].
Этап 1. Вычисление уровня активации нейрона net по формуле [15]:
п
net = w0 + ^^ WiXi, (1.1)
i=1
где w = [w1 ... wn]T е Rn - вектор весов, x = [x1 ... хп]т е Rn - входной вектор, w0 - смещение нейрона. Этап 2. Применение некоторой, как правило, нелинейной функции активации (ФА) а : R ^ R к значению уровня активации
у = a(net).
Для удобства работы в вектор входных сигналов вводится дополнительный фиктивный постоянный единичный входной сигнал х0 = 1 с весовым коэффициентом w0. После преобразования формула вычисления уровня активации нейрона имеет вид:
п
net = ^^ Wi Xi. (1.2)
i=0
X 2
X п
Входы Синапсы Нейрон Выход
Рис. 1.1. Искусственный нейрон
Обучением НС называется процесс определения значений весов НС фиксированной структуры на основе набора известных вход-выходных данных. Эти данные задаются таблицей, называемой обучающим множеством. В такой таблице содержатся значения выходов и соответствующие им комбинации значений входных величин. Строки обучающего множества называются примерами, а значения выходов - указаниями учителя [16,17]. Описанная таблица имеет следующий вид [14]:
Хц Х12 . . Х1П 2/11 2/12 . . Уъ-
Х21 Х22 . . Х2п 2/21 2/22 . (О
Хк1 Хк2 . . Хкп Ук1 Ук'2 . У кг 1
где к - количество примеров, п - количество входов г - количество выходов.
Мгновенный функционал качества характеризует степень близости вектора выходов НС на г-м примере Уг('ш) к указаниям учителя / [18]:
ЯЫ<и))] = $ И^И, (1.3)
где е^т) = Уг('ш) — / - вектор отклонений выходов НС от указаний учителя,
V Е ^гхг - положительно определенная матрица, которая задает взвешенную норму вектора е^).
По существу, функционал 1.3 является евклидовой нормой вектора отклонений, поскольку в роли матрицы V обычно выступает единичная:
г
£г(м)) = £f (м)£г(м) = (уг(ы)-уг) (уг(ы)-уг) = ^ (уг] М-^) 2. (М)
3=1
Совокупная (по всем примерам) ошибка обучения НС задается функционалом [14]:
1 к 1 кг
J N = = ^ (Ш) - ^ ^2. (1.5)
г=1 г=1 ]=1
Задача обучения НС представляет собой нелинейную задачу о наименьших квадратах. Цель обучения состоит в определении такого вектора весов -и], при котором значение функционала (1.5) минимально. Одним из методов обучения многослойных НС прямого распространения является процедура обратного распространения ошибки (ОРО).
Нейронная сеть прямого распространения (НС ПР) представляет собой совокупность связанных нейронов, объединенных в слои. При этом выходы нейронов одного слоя передают сигналы на входы нейронов следующего слоя. Не имеют связей друг с другом нейроны одного слоя и нейроны слоев, не являющихся соседними.
Отдельный слой образуют входы НС ПР. Элементы входного слоя фактически не являются нейронами, поскольку лишь распределяют информацию, а не преобразуют ее. По этой причине входной слой обычно исключают из количества слоев НС ПР.
Выходы нейронов выходного слоя не передаются на входы других нейронов, что отличает выходной слой от остальных, которые называются скрытыми или промежуточными. Прохождние сигнала по сети производится по направлению от входного слоя к выходному.
Рассмотрим т-слойную НС ПР с одним выходом, в 1-ом слое которой находится N1 нейронов, I = 0,... ,тш, = п - количество входов. Пусть и]-й вес ¿-го нейрона 1-го слоя, I = 1,...,т, ¿ = 1,...,N1, ] = 0,..., Тогда выход ¿-го нейрона 1-го слоя можно найти по форму-
ле
■N1
(1 г) - ~{пе1(1 г)) = Л }у(1 ), (1.6)
(£ ^} /-^,
У"' - ) — У
V 3=0
где у(1 -1'0) — 1 - единичный (фиктивный) вход нейрона, у(0,3) — хз - ]-й вход НС ПР,
пеФ,г) - значение уровня активации ¿-го нейрона 1-го слоя, а - функция активации.
Обычно единичная функция выступает в качестве функции активации нейронов выходного слоя. Это позволяет сети выдавать любые действительные выходные значения, а не только ограниченные областью значений функции активации.
Выходы нейронов 1-го слоя представляются вектор-столбцом у(1"> размерности N1, веса нейронов этого слоя - матрицей W(^ размерности N1 х (1 + N1^), в которой 1-я строка состоит из весов ¿-го нейрона 1-го слоя. Матрица W(^ представляет блочную матрицу
W (1) —
I ^ , (1.7)
где - веса нейронов, соответствующие единичным (фиктивным) входам;
- матрица весов между нейронами (I — 1)-го и 1-го слоев. Функционирование 1-го слоя НС ПР в векторно-матричной форме описывается следующей формулой:
у(1) — а(1)(п0] + УТ® у(1 -1)). (1.8)
Функционирование НС ПР описывается формулой [14]:
у — ■т(0т) + w(m)(J( ... (ы02) + №{2)а(ы01} + w(1)x)) ... ), (1.9)
где х - вектор входов, у - вектор выходов НС ПР.
Согласно теореме А.Н. Колмогорова (1957 г.), любая непрерывная функция п переменных Р(х\,х2,... ,хп) может быть представлена в виде [19]
^(ХЛ,Х2, . . . ,Хп) — У^ дЛ У^ Нгз(хг)
2п+1 / п \
^ дА Е Ыз(х,и, =1 =1
где д^ и - непрерывные функции, при этом не зависят от функции Р. Таким образом, функции многих переменных реализуются посредством операций суммирования и композиции функций одной переменной. В одной из последних редакций приведенная теорема формулируется следующим образом (теорема Фунахаши).
Пусть /(х1,х2,... ,хт) - непрерывная функция, определенная на компактном множестве, и £ > 0 - точность аппроксимации. Существует такое натуральное число д и набор действительных чисел и, уг, что функция
где а - непостоянная ограниченная монотонно возрастающая непрерывная функция (например, сигмоидная логистическая [20]), приближает исходную функцию с погрешностью, не превышающей £ на всей области определения.
НС ПР реализует функцию, совпадающую с приведенной формулой. Таким образом, приведенная теорема означает, что двухслойная НС с достаточным количеством нейронов в скрытом слое может реализовать любую непрерывную функцию нескольких переменных с заданной точностью.
1.1.2 Обучение нейронных сетей прямого распространения
Как известно, алгоритм ОРО является одним из наиболее эффективных методов обучения многослойных НС ПР. Процедура обучения предполагает проход по слоям сети в прямом и обратном направлениях. При прямом проходе синаптические веса НС являются фиксированными, а в результате прохождения сигнала по сети входной вектор преобразуется в выходной. Обратного проход по сети предполагает настройку синаптических весов путем расчета отклонения (функционала качества) фактического выхода НС от желаемого (указания учителя). Таким образом, формируется ошибка обучения сети, которая впоследствии распространяется в направлении, обратном направлению синаптических связей. Этим обуславливается соответствующее название процедуры.
В основе алгоритма метода ОРО лежит модификация метода градиентного спуска. При этом градиент функционала качества обучения НС ПР по вектору весов определяется по формуле:
Е ам = Е
\ г=1 ) г=1
з(ш) = V V= Qг(w). (1.10)
В соответствии с правилом дифференцирования суперпозиции функций формула приобретает следующий вид:
д<^к (ю) д<^к (ю) ду(1% дпеЛ( 1>г %
дп](1,%) ду(1,г% дпе№% дп^"% '
(1.11)
Второй множитель полученной формулы является производной функции активации
дпеЛ( 1,г) третий множитель
дпеЬ( 1,г %
ду (% -П.Ы и %
ТГ = о г
ды3
(I, г %
= у( 1-1,]%.
Первый множитель вычисляется с использованием рекуррентной процедуры
,% % = "" _
ду(1,г% ду(1+1,3% ду( 1,г%
г/,г% = дЯкИ = ^ дЯкЫ ду(1+1,3^ = п^ („л+иъ . ^+1,3%
6 = ^(,г% = ^,(1+1,3% ^(1,г% = ) Шг
,1% = = £(^]) = у(У]) — у.
с начальным условием
}(ь,1% = дЯк н
ду(ь,
Поскольку для корректировки весовых коэффициентов при обучении НС ПР с помощью алгоритма обратного распространения используется метод градиентного спуска, то на каждой итерации алгоритма к вектору весов необходимо добавить величину
д (I, г % дЯк М
= ^ ( )
где 0 < г] < 1 -коэффициент скорости обучения;
'и,г - вес связи, соединяющей ]-й нейрон слоя (I — 1) с г-м нейроном слоя .
1.1.3 Общий подход к прогнозированию на основе нейронных
сетей
Поскольку многие производственные, экономические и социально-экономические процессы представляют собой временную последовательность значений какой-либо одной величины, то есть могут быть описаны временными рядами (ВР), то с точки зрения управления представляется целесообразным их анализ и прогнозирование.
Пусть имеются значения ВР Y(t) = Y(1),Y(2),...,Y(Т) в дискретные моменты времени t=1, 2,
3,...,Т. Ставится задача определения значений процесса Y(t) для следующих моментов времени Т + 1,... ,Т + Р в момент времени Т, называемый моментом прогноза. При этом горизонтом прогнозирования называется интервал [1;Р].
Модель прогнозирования представляет собой функциональную зависимость между прошлыми и будущими значениями ряда и используется для вычисления будущих значений ВР:
Y (t) = F (Y (t - 1), Y (t - 2),Y (t - 3),...) + et. (1.13)
Ставится задача построить такую модель прогнозирования, для которой среднее абсолютное отклонение прогнозного значения от фактического стремится к минимальному для заданного Р
1 t+p
E = p £ | £i| ^ min. (1.14)
t=T +1
Приведенное выражение можно переписать в следующем виде
Y(t) = F (Y (t - 1),Y (t - 2),Y (t - 3),...), (1.15)
где Y(t) - прогнозные значения ВР Y(t).
Прогнозирование элементов ВР выполняется с применением метода скользящих окон. Идея метода заключается в использовании двух окон (входного и выходного), фиксированных размеров m и п. Входное окно позволяет формировать данные для входов НС, а выходное - для выходов. Наложение временного окна на массив исходных данных формирует пример для
обучения. Сдвиг окна на один временной интервал вперед формирует следующий обучающий пример.
Пусть ВР Узадан отсчетами процесса У(1),У(2),...,У(Т) в дискретные моменты времени . Начиная с первого элемента, на данные ряда накладываются окна. В процессе обучения НС вычисляются веса связей нейронов, далее выполняется переход к режиму прогнозирования. Входное окно захватывает значения последнего примера обучающего множества У(Т - 2),У(Т - 1),У(Т) и передает их на входы НС, на выходе вычисляется прогнозируемое значение У*(Т + 1), которое добавляется к значениям обучающего множества. Далее на вход НС поступает вектор У(Т - 1),У(Т), У*(Т + 1), а на выходе вычисляется У*(Т + 2) и последующие прогнозируемые значения.
Задача обучения НС заключается в выборе размера входного окна и настройке весов нейронов. Размер входного окна влияет на качество прогноза временного ряда. Эмпирическим путем может быть установлено, что увеличение размера входного окна снижает ошибку обучения НС, однако при этом снижается и точность полученного прогноза, поскольку уменьшается число примеров обучающего множества. По этой причие возникает проблема определения оптимального размера входного окна. Размер выходного окна определяется условиями задачи. Часто размер выходного окна принимают равным единице, поскольку такой единичный выход допускает обобщение на случай других размеров выходного окна.
1.2 Основные понятия интервального анализа
Как известно, функционирование большого числа сложных систем происходит в условиях неопределенности, обусловленной комплексом различных факторов, среди которых случайность, недостаток информации, сложность системы. Характер неопределенности обуславливает выбор методов, которые могут быть применены для решения задач системного анализа. Значительная часть информации о системе поступает от средств измерений и измерительных модулей, входящих в ее состав.
Неопределенность измерений можно разделить на следующие основные типы:
- случайный (вероятностный);
- лингвистический;
- интервальный.
В первом случае применяется теория вероятности и статистические методы, во втором - теория нечетких множеств, в третьем - методы интервального анализа.
Исторически вероятностный подход являлся доминирующим при обработке результатов измерений и решении задач, содержащих неопределенность [21]. Однако для применения вероятностных моделей в практических задачах часто не хватает информации об исходных данных. Кроме того, в ряде задач существенным недостатком является тот факт, что результат представляется в виде точечной оценки, на практике же предпочтительно иметь интервальную оценку, учитывающую неопределенность полученного прогноза [22]. Построение же доверительных интервалов традиционными статистическими методами может быть невозможно из-за сложности задачи [23]. В качестве альтернативы вероятностному подходу могут применяться интервальный анализ и нечеткий подход.
Возрастающий интерес к задачам, в которых неопределенность является неотъемлемой частью, обусловил развитие интервального анализа как отдельной математической дисциплины. Приемы и методы интервальных вычислений разарботаны в трудах как отечественных, так и зарубежных ученых, среди которых Ю.И. Шокин [24], С.П. Шарый [25,26], А.П. Во-щинин [27], Б.С. Добронец [28], Р. Мур [29], Г. Алефельд [30], Ю. Херц-бергер [31], Г. Майер, Л. Жолен [32], М. Кифер, О. Дидри, Э. Вальтер и др.
1.2.1 Интервальные числа
Интервальным числом (интервалом) [а] называется вещественный отрезок [а,а] = {х е К | а ^ х ^ а} - некоторое односвязное подмножество из
К. Нижняя граница интервала определяется как
а = 1Ь([а\) = 8ир{ж Е К и {-то, то} | Уа Е [а],х ^ а}.
Верхняя граница -
а = иЬ([а\) = Ы{у Е К и {-то, то} | Уа Е [а\,а ^ у}.
При этом а ^ а. В случае, если а = а, интервал называется вырожденным (точечным) и отождествляется с вещественным числом а. Множество интервальных чисел обозначается Ж.
Шириной интервала [а\ называется величина
а\) = а - а.
Середина интервала [ а\ представляет собой полусумму
ш1^[а\) = ^(а + а). 2
Над интервальными числами определены следующие арифметические операции [24,29,31-34].
1. [а\ + [Ь\ = [а,а\ + [Ь, Ь\ = [а + Ь,а + Ь\.
2. [а\ - [Ь\ = [а,а\ - [Ь, Ь\ = [а - Ь,а - Ь\.
3. [а] • [Ь] = [а,а\ • [Ь, Ц = [шт(аЬ,аЬ,аЬ,аЬ), шах(аЬ,аЬ,аЬ,аЬ)}. . [а\ [а, а\ г п Д 1. . Г7 -
4- м=Ы=[а'ф [т 1],0 Е [1 ,ц.
_ .... I [ аа, аа],а ^ О,
5. а[а = Ь - 1 п I [аа, аа\, а < О.
Если [а] и [Ь] являются вырожденными, то перечисленные равенства совпадают с обычными арифметическими операциями.
Интервальные операции сложения и умножения остаются коммутативными и ассоциативными:
[а] + [ Ь\ = [ Ь] + [а],
[а] + (И + [с]) = ([Ь] + [а]) + [с];
[а] • [ Щ = [Ь] • [а],
[а]• ([Ь]• [с\) = ([Ь]• [а]) • [с], [а], [Ь], [с] Е Ж.
Для интервальных арифметических операций выполняется свойство монотонности по включению. А именно из условий [а] с [с], [ Ь] с [(] следуют включения [а] + [ Ь] с [с] + [ (], [ а] — [Ь] с [с] — [(], [а][ Ь] с [с][с(], [а]/[Ь] с [сУЩ, 0 е [(].
Отличительная особенность интервальной арифметики состоит в том, что вместо дистрибутивности умножения относительно сложения выполняется субдистрибутивность [а]([Ь] + [с]) с [ а][Ь] + [а][с]. При этом элементы Ж не имеют обратных элементов относительно сложения и умножения: [а] — [а] = 0, [а]/[а] = 1.
Теоретико-множественные операции над интервалами представляют собой:
- пересечение - интервал
[а] П [Ь] = {се К | с е [а] и се [ Ь]} =
[шах{а, Ь}, тт{а, Ь}}, если тах{а, Ь} ^ тт{а, Ь},
Похожие диссертационные работы по специальности «Системный анализ, управление и обработка информации (по отраслям)», 05.13.01 шифр ВАК
Аналитический синтез регуляторов в условиях неопределенности параметров объекта управления1984 год, кандидат технических наук Хлебалин, Николай Александрович
Модели информационных процессов и структур для повышения эффективности нейросетевого симулятора2013 год, кандидат наук Крючин, Олег Владимирович
Вспомогательные функционалы качества и контроль устойчивости в задачах стохастической идентификации2006 год, кандидат физико-математических наук Фатьянова, Ольга Александровна
Структурно-параметрическая идентификация динамических объектов по интервальным исходным данным2006 год, кандидат технических наук Петрикевич, Яна Игоревна
Комплексирование интервальных измерительных данных методом агрегирования предпочтений2017 год, кандидат наук Худоногова, Людмила Игоревна
Список литературы диссертационного исследования кандидат наук Полозова Юлия Евгеньевна, 2019 год
Библиографический список
1. Омату С., Халид М., Юсоф Р. Нейрокомпьютеры и их применение. Книга 2. Нейроуправление и его приложения. Изд-во ИПРЖР, 2000. 272 с.
2. Ishibuchi H., Tanaka H. An extension of the BP-algorithm to interval input vectors // Proc. IEEE Int. Joint Conf. on Neural Networks. Vol. 2. Singapore: 1991. P. 1588-1593.
3. Ishibuchi H., Tanaka H., Okada H. An architecture of neural networks with interval weights and its application to fuzzy regression analysis // Fuzzy Sets and Systems. 1993. Vol. 57, no. 1. P. 27-39.
4. Interval arithmetic backpropagation / C. Hernandez, J. Espi, K. Nakaya-ma et al. // Proc. Int. Joint Conf. on Neural Networks. Vol. 1. Nagoya, Japan: 1993. P. 375-378.
5. Patil R.B. Interval Neural Networks // Extended Abstracts of APIC'95: International Workshop on Applications of Interval Computations. El Paso: TX: Reliable Computing, 1995. с. 164.
6. Belohlavek R. Backpropagation for interval patterns // Neural Network World. 1997. Vol. 7, no. 3. P. 335-346.
7. Drago G. P., Ridella S. Pruning with interval arithmetic perceptron // Neurocomputing. 1998. Vol. 18. P. 229-246.
8. Kim H., Ryu T.-W. Time series prediction using an interval arithmetic FIR network // Neural Information Processing - Letters and Reviews. 2005. Vol. 8, no. 3. p. 39-47.
9. Yang D., Wu W. A Smoothing Interval Neural Network // Discrete Dynamics in Nature and Society. 2012. Vol. 2012.
10. Ak R., Vitelli V., Zio E. An Interval-Valued Neural Network Approach for Uncertainty Quantifica-tion in Short-Term Wind Speed Prediction // IEEE Transactions on Neural Networks and Learning Systems. 2015.
11. iMLP: Applying Multi-Layer Perceptrons to Interval-Valued Data / A. M. S. Roque, C. Mate, J. Arroyo et al. // Neural Processing Letters. 2007. Vol. 25, no. 2. P. 157-169.
12. Rossi F., Conan-Guez B. Multi-layer Perceptron on Interval Data // Classification, Clustering, and Data Analysis. 2002. P. 427-434.
13. Yang D., Li Z., Wu W. Extreme learning machine for interval neural networks // Neural Computing and Applications. 2016. Vol. 27(1). p. 3-8.
14. Сараев П.В. Нейросетевые методы искусственного интеллекта. Липецк: ЛГТУ, 2007. 64 с.
15. Круглов В.В. Искусственные нейронные сети. Теория и практика. Телеком, 2002. 382 с.
16. Осовский С. Нейронные сети для обработки информации. М.: Финансы и статистика, 2002. 344 с.
17. Хайкин С. Нейронные сети: полный курс. М.: Изд. дом «Вильямс», 2006. 1104 с.
18. Аведьян Э.Д. Алгоритмы настройки многослойных нейронных сетей // Автоматика и телемеханика. 1995. № 4. С. 106-118.
19. Горбань А.Н. Функции многих переменных и нейронные сети // Сорос. образ. журн. 1998. № 12. С. 105-112.
20. Barron A. Universal approximation bounds for superposition of a sigmoi-dal function // IEEE Transfction on Information Theory. 1993. Vol. 39, no. 3. P. 930-945.
21. Орлов А.И. Основные идеи статистики интервальных данных // Политематический сетевой электронный научный журнал Кубанского государственного аграрного университета. 2013. № 94. С. 55-70.
22. Подружко А.А., Подружко А.С., Кирицев П.Н. Интервальные методы решения задач калибровки и классификации // Труды института системного анализа российской академии наук. 2009. Т. 44. С. 173186.
23. Померанцев А.Л., Родионова О.Е. Задачи обработки больших массивов химических данных при интервальной нестатистической ошибке // Всероссийское совещание по интервальному анализу и его приложениям (Интервал-06). Петергоф, Россия: 2006. С. 114-115.
24. Шокин Ю.И. Интервальный анализ. Новосибирск: Наука, 1981. 112 с.
25. Шарый С.П. Рандомизированные алгоритмы в интервальной глобальной оптимизации // Сибирский журнал вычислительной математики. 2008. № 4. С. 457-474.
26. Шарый С.П. Конечномерный интервальный анализ. Новосибирск: XYZ, 2017. 617 с.
27. Вощинин А.П. Интервальный анализ данных: развитие и перспективы // Заводская Лаборатория. 2002. Т. 68, № 1. С. 118-126.
28. Добронец Б.С. Интервальная математика. Красноярск: Издательство КГУ, 2004. 216 с.
29. Moore R., Kearfott R., Cloud M. Introduction to interval analysis. Philadelphia: SIAM, 2009. 235 p.
30. Alefeld G., Claudio D. The basic properties of interval arithmetic, its software realizations and some applications // Computers & Structures. 1998. no. 67. P. 3-8.
31. Алефельд Г., Херцбергер Ю. Введение в интервальные вычисления. Москва: Мир, 1987. 360 с.
32. Прикладной интервальный анализ / Л. Жолен, М. Кифер, О. Дидри [и др.]. Москва - Ижевск: Издательство «РХД», 2007. 468 с.
33. Neumaier A. Interval methods for systems of equations. Cambridge: Cambridge University Press, 1990. 255 p.
34. Калмыков С.А., Шокин Ю.И., Юлдашев З.Х. Методы интервального анализа. Новосибирск: Наука, 1986. 221 с.
35. Li H., Li H., Du Y. A Global Optimization Algorithm Based on Novel Interval Analysis for Training Neural Networks // Advances in Computation and Intelligence. 2007. P. 286-295.
36. Xue J., Chen D., Xiang M. A neural network's learning algorithm based on interval optimization // 2010 2nd International Conference on Computer Engineering and Technology. Vol. 2. 2010. P. 629-631.
37. Панов Н.В., Колдаков В.В. Программный комплекс для графического представления процесса и результатов работы интервальных алгоритмов // Труды 5-й международной конференции памяти академика А.П. Ершова «Перспективы систем информатики». Т. 1 из Международное совещание по интервальной математике и методам распространения ограничений. 2003. С. 38-46.
38. Ratz D. Box-Splitting strategies for the interval Gauss-Seidel step in a global optimization method // Computing. 1994. Vol. 53, no. 3. P. 337353.
39. Сараев П.В. Численные методы интервальной оптимизации в нейро-сетевом моделировании // Вести ВУЗов Черноземья. 2011. № 2(24). с. 30-34.
40. New Interval Analysis Support Functions Using Gradient Information in a Global Minimization Algorithm / L. Casado, J. Martinez, I. GarcIa et al. // Journal of Global Optimization. 2003. Vol. 25, no. 4. P. 345362.
41. Hansen E., Walster G. Global optimization using interval analysis. New York: Marcel Dekker, 2004. 728 p.
42. Jamett M., Acuna G. An Interval Approach for Weight's Initialization of Feedforward Neural Networks // MICAI 2006: Advances in Artificial Intelligence. 2006. P. 305-315.
43. Baker M. R., Patil R. B. Universal Approximation Theorem for Interval Neural Networks // Reliable Computing. 1998. Vol. 4, no. 3. P. 235239.
44. On interval weighted three-layer neural networks / M. Beheshti, A. Ber-rached, A. de Korvin et al. // Proceedings 31st Annual Simulation Symposium. Boston, MA: 1998. P. 188-194.
45. Simoff S. J. Handling uncertainty in neural networks: An interval approach // Proceedings of IEEE International Conference on Neural Networks. Washington, DC, USA: 1996. p. 606-610.
46. Сараев П.В., Сяглова (Полозова) Ю.Е. Анализ эффективности выбора функций активации в нейросетевом прогнозировании // Системы управления и информационные технологии. 2012. № 3.1(49). С. 165169.
47. Сараев П.В., Сяглова (Полозова) Ю.Е. Повышение эффективности валютного хеджирования на основе результатов нейроструктурного прогнозирования // Проблемы управления. 2013. № 6. С. 48-52.
48. Водотыка С. В. Использование искусственных нейронных сетей с интервальной арифметикой при построении калибровочной зависимости средства измерения // Сборник научных трудов Харьковского университета Воздушных Сил. 2011. № 1. с. 217-222.
49. Полозова Ю.Е. К вопросу о гарантированных вычислениях в интервальном нейросетевом моделировании и прогнозировании // Управление большими системами: материалы XIII Всероссийской школы-конференции молодых ученых. Самара: 2016. С. 143-153.
50. Ratschek H., Rokne J. New computer methods for global optimization. Halsted Press, 1988. 229 p.
51. Patino-Escarcina R. E., Callejas Bedregal B. R., Lyra A. Interval Computing in Neural Networks: One Layer Interval Neural Networks // Intelligent Information Technology. 2005. P. 68-75.
52. Колмогоров А.Н. О представлении непрерывных функций нескольких переменных в виде суперпозиций непрерывных функций одного переменного и сложения // Докл. АН СССР. 1957. Т. 114, № 5. С. 953-956.
53. Kurkova V. Kolmogorov's Theorem and Multilayer Neural Networks // Neural Networks. 1992. Vol. 5. P. 501-506.
54. Nakamura M., Mines R., Kreinovich V. Guaranteed intervals for Kolmogorov's theorem (and their possible relation to neural networks) // Interval Computations. 1993. no. 3. P. 183-199.
55. Достоверные вычисления. Базовые численные методы / У. Кулиш, Д. Рац, Р. Хаммер [и др.]. М.-Ижевск: НИЦ «РХД», 2005. 496 с.
56. Шумилова Г.П., Готман Н.Э., Старцева Т.Б. Прогнозирование нагрузки узлов электроэнергетической системы с использованием инверсии искусственной нейронной сети // Электричество. 2007. № 6. С. 7-13.
57. Inversion of feedforward neural networks: algorithms and applications / C. Jensen, R. Reed, I. R. Marks et al. // Proceedings of the IEEE. 1999. Vol. 87, no. 9. P. 1536-1549.
58. Lu B.-L., Kita H., Nishikawa Y. Inverting feedforward neural networks using linear and nonlinear programming // IEEE Transactions on Neural Networks. 1999. Vol. 10, no. 6. P. 1271-1290.
59. Linden A., Kindermann J. Inversion of multilayer nets // Procidings of the international joint conference on neural networks. Vol. II. 1989. P. 425-430.
60. Reed R., Marks R. An evolutionary algorithm for function inversion and boundary marking // Proceedings of 1995 IEEE International Conference on Evolutionary Computation. Vol. 2. 1995. P. 794-797.
61. Hernandez-Espinosa C., Fernandez-Redondo M., Ortiz-Gomez M. Rule Extraction from a Multilayer Feedforward Trained Network via Interval Arithmetic Inversion // International Work-Conference on Artificial Neural Networks. 2003. P. 622-629.
62. Павлов Д.А., Пучков А.Ю. Варианты построения алгоритма поиска решения обратных задач с применением нейронных сетей // Программные продукты и системы. 2012. № 2 (98). С. 149 - 153.
63. Hoskins D. A., Hwang J. N., Vagners J. Iterative Inversion of Neural Networks and Its Application to Adaptive Control // IEEE Transactions on Neural Networks. 1992. Vol. 3, no. 2. P. 292-301.
64. Чернодуб А.Н., Дзюба Д.А. Обзор методов нейроуправления // Проблемы программирования. 2011. № 2. С. 79-94.
65. Терехов В.А., Ефимов И.Ю., Тюкин И.Ю. Нейросетевые системы управления. М.: Высш. шк., 2002. 183 с.
66. Genetic interval neural networks for granular data regression / M. Cimi-noa, B. Lazzerinia, F. Marcellonia et al. // Information Sciences. 2014. Vol. 257. p. 313-330.
67. Interval Basis Neural Networks / A. Horzyk, B. Ribeiro, R. Albrecht et al. // Adaptive and Natural Computing Algorithms. 2005. p. 50-53.
68. Anguita D., Ridella S., Rovetta S. Limiting the effects of weight errors in feed forward networks using interval arithmetic // Proceedings of International Conference on Neural Networks (ICNN'96). Vol. 1. 1996. P. 414-417.
69. Garczarczyk Z. Interval neural networks // 2000 IEEE International Symposium on Circuits and Systems. Emerging Technologies for the 21st Century. No. 3. 2000. P. 567-570.
70. Сараев П.В., Полозова Ю.Е. Нейросетевой подход к решению задач с интервальными неопределенностями // Сборник трудов конференции «Modern informatization problems in the technological and telecommunication systems analysis and synthesis». Yelm, WA, USA: Science Book Publishing House, 2016. С. 337-341.
71. Сараев П.В., Полозова Ю.Е. Об особенностях прогнозирования интервальных величин на основе интервальной нейронной сети // Сборник трудов конференции «Modern informatization problems in the technological and telecommunication systems analysis and synthesis». Yelm, WA, USA: Science Book Publishing House, 2017. С. 182-188.
72. Сараев П.В., Полозова Ю.Е. Перспективы интервального нейросе-тевого моделирования и прогнозирования // Вестник ЛГТУ. 2016. № N1(27). С. 6-13.
73. Сараев П.В., Полозова Ю.Е. Подход к решению задачи гарантированного включения при прогнозировании на основе интервальной нейронной сети // Современные методы прикладной математики, теории управления и компьютерных технологий: сб. тр. IX междунар. конф. «ПМТУКТ-2016». Воронеж: Изд-во «Научная книга», 2016. С. 304306.
74. Сараев П.В., Полозова Ю.Е., Полозов Ю.Л. Применение результатов интервального нейросетевого прогнозирования для калибровки средств измерений в системах управления // Проблемы управления. 2017. № 2. с. 50-55.
75. Полозова Ю.Е. Идентификация дуальнопараметрических нейросете-вых моделей // Вести ВУЗов Черноземья. 2017. № 1. С. 73-80.
76. Сараев П.В., Полозова Ю.Е. Алгоритм обучения дуальнопараметри-ческих нейросетевых моделей на основе процедуры расширения интервалов // Современные сложные системы управления: материалы XII международной научно-практической конференции. Липецк: 2017. С. 133-137.
77. Горбань А.Н. Обучение нейронных сетей. М.: ПараГраф, 1990. 160 с.
78. Полозова Ю.Е. Экспериментальное исследование устойчивости интервальных нейросетевых моделей // Современные сложные системы управления: материалы XII международной научно-практической конференции. Липецк: 2017. С. 124-127.
79. Борисевич А.В. Теория автоматического управления: элементарное введение с применением МАТЬАБ. М.: Инфра-М, 2014. 200 с.
80. Граничин О.Н. Рандомизированные алгоритмы в задачах обработки данных и принятия решений // Системное программирование. 2012. Т. 6. С. 141-162.
81. Сараев П.В., Полозова Ю.Е. Минимаксная оптимизация в параметрической идентификации дуально-параметических нейронных сетей // Вести высших учебных заведений Черноземья. 2017. № 3(49). с. 49-59.
82. Полозова Ю.Е. Об особенностях применения интервальных алгоритмов оптимизации при обучении интервальных нейросетевых моделей // Ucom, Научный альманах. 2016. № 9-1(23). с. 475-478.
83. Сараев П.В., Полозова Ю.Е. Использование различных функций активации в структурной идентификации дуальнопараметрических нейронных сетей // Управление большими системами, УБС-2017: материалы XIV Всероссийской школы-конференции молодых ученых. Пермь: 2017. С. 405-413.
84. Сараев П.В., Полозова Ю.Е. Алгоритм структурной идентификации дуальнопараметрических нейронных сетей // Математические методы в технике и технологиях - ММТТ. Т. 4. 2017. С. 41-45.
85. Polozova Y., Saraev P. Interval-valued Data Forecasting Using Dual-parametric Neural Networks // Advances in Systems Science and Applications. 2017. no. 3. P. 36-42.
86. Полозова Ю.Е. Сравнительный анализ алгоритмов обучения дуально-параметрических нейронных сетей // Системы управления и информационные технологии. 2018. № 3(73). С. 41-46.
87. Правиков Ю.М., Муслина Г.Р. Метрологическое обеспечение производства. М.: КНОРУС, 2009. 240 с.
88. Логин В.В., Чепульский Ю.П., Андреев П.А. Метрологическое обеспечение предприятий. М.: МГУПС (МИИТ), 2016. 289 с.
89. Хамханова Д.Н. Прикладная метрология. Улан-Удэ: Изд-во ВСГТУ, 2006. 160 с.
90. Грибов В. В., Иванова Л. Е. Особенности трактовки понятия «калибровка» в нормативно-правовых документах // Молодой ученый. 2016. № 12.3. С. 43-45.
91. Назаров Н.Г. Метрология: Основные понятия и математические модели. М.: Высшая школа, 2002. 348 с.
92. Шишкин И.Ф. Теоретическая метрология. Часть 1. Общая теория измерений. СПб.: Питер, 2010. 192 с.
93. Шишкин И.Ф. Теоретическая метрология. Часть 2. Обеспечение единства измерений. СПб.: Питер, 2012. 240 с.
94. Мокров Ю.В. Метрология, стандартизация и сертификация. Дубна, Международный университет природы, общества и человека Дубна, 2007. 132 с.
95. Баталов А.П., Бойцов Ю.П., Иванов С.Л. Метрология, стандартизация, сертификация. СПб, Санкт-Петербургский государственный горный институт (технический университет), 2003. 65 с.
96. Схиртладзе А.Г., Радкевич Я.М. Метрология, стандартизация и технические измерения. Старый Оскол: ТНТ, 2010. 420 с.
97. Pogodaev A., Saraev P. Neurostructural modelling and prédiction of hot-rolled production defects by casting parameters // Journal of Chemical Technology and Metallurgy. 2015. Vol. 50, no. 6. P. 595-599.
98. Сараев П.В., Галкин А.В. Нейроструктурное прогнозирование дефектов горячекатаной продукции // Современные проблемы горнометаллургического комплекса. наука и производство: материалы Одиннадцатой Всероссийской научно-практической конференции с международным участием. 2014. С. 321-326.
99. Сараев П.В. Интервализация в задачах классификации и анализе качества литых слябов // Современные проблемы горнометаллургического комплекса. Наука и производство Материалы Двенадцатой Всероссийской научно-практической конференции, с международным участием. 2015. с. 275.
100. Кондратенко С.Г., Григорьев Е.И. Поверка и калибровка средств измерений в радиометрии ионизирующих излучений. М.: Академия стандартизации, метрологии и сертификации, 2007. 35 с.
101. Кулешов В.К., Сертаков Ю.И. Поверка и калибровка средств измерений ионизирующего излучения. Томск: Изд-во Томского политехн. ун-та, 2008. 184 с.
102. Saraev P., Polozova Y., Polozov Y. Usage of dual-parametric neural networks for measuring instruments calibration // 2017 2nd International Ural Conference on Measurements (UralCon). Chelyabinsk, Russia: 2017. P. 187-192.
Щъь\ W
УТВЕРЖДАЮ И.о. директора У «Липецкий ЦСМ» / Комолов И.В. / 20-//г.
СПРАВКА
об использовании результатов научно-исследовательской работы
Комиссия ФБУ «Липецкий ЦСМ» в составе зам. директора по метрологии Комолова И.В., начальника отдела поверки и калибровки средств измерений электротехнических, радиоэлектронных и ионизирующих излучений (ЭРИИ) Жердева A.B., начальника отдела метрологического обеспечения производства (МОП) Моисеева Р.И. установила, что аспирантом Федерального государственного бюджетного образовательного учреждения высшего образования «Липецкий государственный технический университет» Полозовой Юлией Евгеньевной в ходе работы над кандидатской диссертацией были выполнены следующие работы по разработке и внедрению алгоритма прогнозирования при калибровки средств измерений:
1. Разработаны алгоритмы прогнозирования на основе интервального нейросетевого моделирования метрологических характеристик средств измерений с целью повышения эффективности, качества проведения процедуры калибровки и испытаний.
2. Внедрено программное обеспечение для построения прогнозных значений метрологических характеристик, позволяющее проводить процедуру калибровки в ограниченном диапазоне измерений. Комиссия положительно оценивает проведенную работу и отмечает
актуальность направления научных исследований Полозовой Ю.Е.. Комиссия считает, что результаты работы Полозовой Ю.Е. повысят эффективность определения метрологических характеристик средств измерений.
Члены комиссии: Зам. директора по метрологии
Начальник отдела ЭРИИ
Начальник отдела МОП
Комолов И.В.
Жердев A.B.
оисеев Р.И.
СПРАВКА
об использовании результатов научно-исследовательской работы
Специалистами Технической дирекции ПАО «Новолипецкий металлургический комбинат» рассмотрены результаты диссертационной работы аспиранта Федерального государственного бюджетного образовательного учреждения высшего образования «Липецкий государственный технический университет» Полозовой Юлии Евгеньевны по решению задач анализа причин образования дефектов сталеплавильного происхождения и повышению качества поверхности горячекатаной продукции на основе математического исследования комплекса технологических параметров разливки стали и внепечной обработки слябов.
1. Разработан рандомизированный алгоритм решения обратной задачи интервального нейромоделирования для определения интервальных значений технологических параметров, при которых вероятность появления дефекта сляба не превышает заданных границ.
2. Проведены вычислительные эксперименты на массиве тестовых данных, подтверждающие возможность применения предложенного подхода в управлении качеством горячекатаной продукции.
Специалистами Технической дирекции дана положительная оценка проведенной работе и отмечается, что полученные результаты приняты к рассмотрению и предложено опробовать на фактических данных агрегатов ПАО «НЛМК» применение предложенного похода в технологическом процессе производства литых слябов с целью прогноза качества поверхности горячекатаной продукции.
Главный специалист по исследовани технологических процессов математическими и статистическими методами Управления развития технологии ПАО «НЛМК», к.т.н., с.н
Директор Технической дирекции ПАО «НЛМК», к.т.н.
В.А. Пименов
А. И. Дагман
Обратите внимание, представленные выше научные тексты размещены для ознакомления и получены посредством распознавания оригинальных текстов диссертаций (OCR). В связи с чем, в них могут содержаться ошибки, связанные с несовершенством алгоритмов распознавания. В PDF файлах диссертаций и авторефератов, которые мы доставляем, подобных ошибок нет.