Разработка интеллектуальных систем моделирования слабоформализуемых процессов на основе нейро-нечетких моделей тема диссертации и автореферата по ВАК РФ 05.13.01, кандидат наук Буй Чыонг Ан

  • Буй Чыонг Ан
  • кандидат науккандидат наук
  • 2022, ФГАОУ ВО «Московский физико-технический институт (национальный исследовательский университет)»
  • Специальность ВАК РФ05.13.01
  • Количество страниц 133
Буй Чыонг Ан. Разработка интеллектуальных систем моделирования слабоформализуемых процессов на основе нейро-нечетких моделей: дис. кандидат наук: 05.13.01 - Системный анализ, управление и обработка информации (по отраслям). ФГАОУ ВО «Московский физико-технический институт (национальный исследовательский университет)». 2022. 133 с.

Оглавление диссертации кандидат наук Буй Чыонг Ан

ВВЕДЕНИЕ

ГЛАВА 1. НЕЙРО-НЕЧЕТКИХ МОДЕЛЕЙ

1.1 Основные понятия и теории нечетких множеств

1.1.1 Нечеткие множества

1.1.2 Многомерное нечеткое множество

1.1.3 Функция принадлежности

1.1.4 Многомерная функция принадлежности

1.2 Нечёткие модели

1.2.1 Фазификация

1.2.2 Нечеткий вывод

1.2.3 Дефазификация

1.3 Искусственные нейронные сети

1.3.1 Персептрон

1.3.2 Функции активации

1.3.3 Архитектура нейронных сетей

1.4 Нейро-нечеткие модели

1.4.1 Адаптивная нейро-нечеткая система вывода

1.4.2 Алгоритмы обучения нейро-нечетких моделей

ГЛАВА 2. СТНТЕЗ СИСТЕМЫ НЕЧЕТКОГО ВЫВОДА НА ОСНОВЕ МНОГОМЕРНЫХ ГАУССОВСКИХ ФУНКЦИЙ ПРИНАДЛЕЖНОСТИ

2.1 Понятия многомерных гауссовских функций принадлежности

2.2 Объединение двух функций принадлежности

2.3 Нейро-нечеткие модели на основе многомерных функций принадлежности

2.4 Алгоритм построения нечеткой системы

ГЛАВА 3. АЛГОРИТМЫ ИДЕНТИФИКАЦИИ КОЭФФИЦИЕНТОВ ЛИНЕЙНЫХ УРАВНЕНИЙ В НЕЙРО-НЕЧЕТКИХ МОДЕЛЯХ

3.1 Рекуррентный метод наименьших квадратов

3.2 Алгоритм Качмажа

3.3 Адаптивные алгоритмы идентификации

3.4 Сравнение алгоритмов идентификации коэффициентов линейных уравнений

ГЛАВА 4. ПРИМЕНЕНИЕ АЛГОРИТМА СИНТЕЗА СИСТЕМЫ НЕЧЕТКОГО ВЫВОДА НА ОСНОВЕ МНОГОМЕРНЫХ ГАУССОВСКИХ ФУНКЦИЙ ПРИНАДЛЕЖНОСТИ

4.1 Сравнение методов объединения нечетких функций принадлежности

4.2 Применение нечеткой системы в задаче моделирования линейной функции

4.2.1 Постановка задачи

4.2.2 Параметры инициализации модели

4.2.3 Полученные результаты

4.3 Применение нейро-нечеткой модели для решения задачи прогнозирования валютного курса

4.3.1 Постановка задачи

4.3.2 Алгоритм выбор информативных переменных

4.3.3 Параметры инициализации модели

4.3.4 Полученные результаты

4.2.5 Практическое применение модели

ЗАКЛЮЧЕНИЕ

СПИСОК ЛИТЕРАТУРЫ

ПРИЛОЖЕНИЕ

Приложение 1. Код программы для синтеза системы нечеткого вывода на основе многомерных гауссовских функций принадлежности

Приложение 2. Акт о внедрении результатов диссертационной работы

Приложение 3. Свидетельство о государственной регистрации программы для ЭВМ

Рекомендованный список диссертаций по специальности «Системный анализ, управление и обработка информации (по отраслям)», 05.13.01 шифр ВАК

Введение диссертации (часть автореферата) на тему «Разработка интеллектуальных систем моделирования слабоформализуемых процессов на основе нейро-нечетких моделей»

ВВЕДЕНИЕ

Актуальность темы исследования. С развитием промышленности разработка методов анализа и управления сложными системами становится все более актуальной задачей. Общими характеристиками современных технологических систем являются многомерность, нелинейность и многосвязность. К свойствам сложных систем, влияющим на анализ, моделирование и синтез систем управления, можно отнести, что cущественная часть информации, необходимая для математического описания объекта, существует только в виде представлений специалистов, имеющих опыт работы с данным объектом. В ряде случаев условия, влияющие на объект моделирования, могут быть выражены только в качественном выражении; часто сам объект моделирования не может быть выражен в виде некоторого количественного соотношения. С другой стороны, хранилища цифровых данных становятся все более огромными, возрастает потребность в преобразовании цифровой информации в качественную информацию.

Очевидно, что в этих условиях требуются математические модели, способные работать как с количественной, так и с качественной информацией. Всем этим свойствам отвечает нейро-нечеткие системы.

Преимуществом нейронных сетей является их способность обучаться и адаптироваться. Управление объектом могут производиться без полного знания (математической модели) объекта.

Нейронные сети состоят из большого количества простых обрабатывающих элементов (нейронов), которые связаны между собой, поэтому при параллельной обработке информации возникает огромная вычислительная мощность. Однако знания, накопленные нейронной сетью, распределяются между всеми ее элементами, что делает их практически недоступными для наблюдателя.

Системы моделирования и управления с нечеткой логикой не имеют этого ограничения. Знания об исследуемой системе требуются на этапе проектирования

моделей, и они должны исходить от экспертов, и поэтому система управления с нечеткой логикой не способна к обучению.

Объединение обоих подходов позволяет создать систему, обладающую как способностью к обучению нейронной сети, так и усилением интеллектуальных способностей системы с нечеткими правилами принятия решений, присущими «человеческому» способу мышления.

Такие нейро-нечеткие системы очень разнообразны и все больше совершенствуются в соответствии с развитием алгоритмов обучения нейронных сетей. Среди них методы градиентного спуска [1-3]. Недостатком этих алгоритмов является то, что они медленные, если определение шага обучения неудовлетворительно, и легко сходятся к локальным минимумам. Алгоритмы популяции позволяют решить эти проблемы и эффективны в оптимизации большого пространства, разделенные на две группы, включающие эволюционные алгоритмы и алгоритмы роя. Генетический алгоритм (ГА) относится к группе эволюционных алгоритмов, основанных на таких генетических процессах, как отбор, мутация и обмен [4-7]. Другим алгоритмом, принадлежащим к группе эволюционных алгоритмов, является алгоритм дифференциальной эволюции [8,9], также вдохновленный биологией, такой как ГА, разница в том, что мутантный элемент создается путем добавления числа эффективности между двумя элементами с предыдущими поколениями. Группа алгоритмов роя часто черпает идеи из поведения животных, таких как алгоритм роя частиц [10,11], алгоритм муравьиной колонии [12-14], алгоритм пчелиного роя [15], алгоритм поиска птичьей кукушки [16]. Существуют также алгоритмы на основе опорных векторов [17-19] и алгоритмы экстремального машинного обучения [20-22].

Большинство вышеперечисленных работ построены на основе одномерных функций принадлежности, таких как Гаусса, Белла, Треугольная, РБФ. Ограничением этого подхода является сложность модели по количеству правил, экспоненциально возрастающая к числу входов (пространственное проклятие).

В качестве эффективного решения вышеуказанной проблемы предлагается применение многомерных функций принадлежности к системе нечеткого вывода. В [23] вводится нечеткая модель с треугольными многомерными функциями принадлежности, эти функции принадлежности получаются путем триангуляции Делоне их характерных точек. Проблема этого метода в том, что каждое нечеткое множество создается путем связывания «узлов» в пространстве. Для многомерного пространства количество «узлов», необходимых для представления нечеткого множества, быстро увеличивается, что приводит к большому количеству переменных для описания функции принадлежности. По сравнению с треугольными многомерными сопряженными функциями многомерным функциям Гаусса требуется меньше переменных для описания нечеткого множества [24-26]. В [24] идентификация функций принадлежности осуществляется с помощью алгоритма кластеризации. Вычисление расстояния выполняется для входных и выходных переменных, так что данные в одной и той же группе могут не иметь одинаковых выходных свойств. Данные с аналогичными выходами могут быть расположены в разных кластерах из-за большего расстояния во входном пространстве. Это отсутствие ассоциации снижает объяснительную силу сгенерированной нечеткой системы.

В [25], [26] многомерные гауссовские функции принадлежности используются в развивающих нечетких моделях. Алгоритмы в вышеуказанных работах используются для разработки системы нечеткого вывода на основе последовательного набора входных данных. Это приводит к тому, что при наличии обучающих наборов данных их высокая точность не гарантируется.

В [27] многомерные гауссовские функции принадлежности используются с неполными ковариационными матрицами, что по существу является еще одним выражением использования одномерных гауссовских функций принадлежности. Использование таких функций принадлежности не дает ни преимущества количества нечетких правил, ни уменьшения ошибки декомпозиции.

Большинство алгоритмов определения параметров нечетких функций принадлежности в вышеуказанных работах разработаны на основе алгоритмов синтеза нечетких правил для одномерных функций принадлежности.

Нечеткие правила, генерируемые этими алгоритмами, часто перекрываются и не могут действовать как независимые правила. Перекрытие нечетких правил в нечетких системах не позволяет оценить достоверность отдельных нечетких правил и в то же время создает ограничения в извлечении знаний из нечетких систем. При применении нечеткой нейронной системы, основанной на многомерной функции принадлежности, к системам поддержки принятия решений очень важна возможность оперировать независимо от нечетких правил, поскольку она позволяет оценивать точность решения, заданного на основе отдельных нечетких правил. Поэтому задача построения многомерной функции принадлежности с нечеткими правилами, способной к независимой работе, является актуальной.

Данная диссертационная работа посвящена разработке алгоритма построения системы нечеткого вывода с многомерными гауссовыми функциями принадлежности на основе имеющихся обучающих данных. Сгенерированные нечеткие правила способны описывать отношения взаимодействия между входными переменными, имеют индивидуальные рабочие области и способны работать независимо.

Степень разработанности темы. Исследованы методы оптимизации параметрических и структурных нечетких моделей. В этой области нужно отметить труды следующих авторов: Zadeh L. A., Bellman R., Kalaba R., Takagi T., Sugeno M., Ernest CzogaLa, Witold Pedrycz., Tong R., Shi Y., Mizumoto M., Пащенко Ф.Ф., Кудинов Ю.И., Келина А.Ю., Пащенко А.Ф., Кудинов И.Ю.. В направлении применения многомерных гауссовских функции принадлежностей в нечетких моделях можно отметить труды таких авторов, как Dongyeop K.,Woojong Y., Sangchul W., Andre L., Walmir C., Fernando G., Mahardhika P., Sreenatha. G. A., Angelov Plamen. P., Edwin L.. В данной диссертации предложен метод

параметрические и структурные идентификации нечетких моделей с многомерной гауссовской функцией принадлежности.

Цель диссертационной работы. Целью диссертации является разработка и исследование новых методов и алгоритмов синтеза нечетких моделей с нечеткими правилами, способными работать независимо, на основе многомерных гауссовских функций принадлежности.

Задачи диссертационной работы.

1. Анализ современного состояния в области нейро-нечеткого моделирования.

2. Разработка подхода к вычислению расстояния между двумя многомерными гауссовскими функциями принадлежности и их объединению.

3. Разработка архитектуры нейро-нечеткой модели на основе многомерных функции принадлежностей.

4. Разработка новых алгоритмов синтеза нейро-нечетких моделей на основе многомерных функции принадлежностей.

5. Формирование подхода к выбору алгоритма идентификации параметров нейро-нечетких моделей.

6. Разработка программных продуктов для реализации предложенных алгоритмов.

Методология и методы исследования. Для решения поставленных задач использованы следующие методы:

• Теория нечеткой логики

• Нейро-нечеткие модели

• Теории вероятностей и математической статистики

• Математической логики

• Вычислительной математики

• Теория алгоритмов

• Моделирования

• Программирования

Научная новина.

1. Предложен новый метод расчета расстояния между двумя функциями принадлежностей.

2. Предложен метод слияния двух многомерных гауссовских функций принадлежностей.

3. Предложена архитектура нейро-нечеткой модели на основе многомерных функции принадлежностей.

4. Разработка алгоритма синтеза системы нечеткого вывода с многомерной гауссовской функцией принадлежности на основе цифровых входных данных.

Личный вклад автора. Все проведённые работы и результаты исследования в диссертации выполнены самим автором и под непосредственным руководством научного руководителем. Личный вклад автора заключается в анализе и исследовании методов решения подставленных задач в диссертации, а также в разработке программных моделей для исследования предложенных алгоритмов и методов. Кроме того, автор внес основной вклад в подготовку всех статьей и тезисов, содержание которых было доложено на всероссийских и международных конференциях.

Теоретическая значимость. Теоретическая значимость работы заключается в: разработке теоретических основ работы с многомерными гауссовскими функциями принадлежности, позволяющих определять покрытие многомерных гауссовских нечетких множеств и взаимное расположение между ними; разработке новых алгоритмов и методов для синтеза нечетких моделей на основе гауссовских многомерных функции принадледностей.

Практическая значимость. Основные результаты диссертации могут быть применены для решения задачи моделирования и управления, где требуется строить нечеткие системы из наборов цифровых данных.

Основные положения, выносимые на защиту:

1. Метод объединения двух многомерных гауссовских функций принадлежности

2. Архитектура нейро-нечеткой модели на основе многомерных функции принадлежностей.

3. Новый алгоритм синтеза нейро-нечетких моделей на основе многомерных функций принадлежностей.

4. Анализ выборов алгоритмов идентификации параметров нейро-нечетких моделей на основе многомерных функций принадлежностей.

Достоверность полученных результатов. Достоверность полученных результатов проведенных работ в диссертационной работе подтверждается сопоставлением теоретических и экспериментальных результатов, полученных с помощью среды программирования Python.

Апробация работы. Основные результаты исследования по теме диссертационной работы докладывались и обсуждались на следующих конференциях:

1. VII Международная конференция «Инжиниринг & Телекоммуникации En&T 2020» (МФТИ, г. Москва, 2020 г).

2. Международная научно-практическая конференция «Информационные технологии и интеллектуальные системы принятия решений» (РосНОУ, г. Москва, 2022 г).

3. Четырнадцатая международная конференция «Управление развитием крупномасштабных систем» (ИПУ РАН, г. Москва 2020 г).

4. International Siberian Conference on Control and Communications (SIBCON) (KFU, г. Казань, 2021 г).

Публикация. Основные результаты, полученные в ходе выполнения диссертационной работы, были опубликованы в 5 научных работах, из них 1 статья была опубликована в научном журнале, входящем в перечень РИНЦ, 3 статьи

опубликованы в изданиях, индексируемых в международной безе цитирования SCOPUS, 1 свидетельство о регистрации программы для ЭВМ.

Объём и структура диссертации. Диссертация состоит из введения, четырёх глав, заключения и шести приложений. Общий объём диссертации составляет 133 страниц, в том числе 48 рисунок, 9 таблиц. Список литературы содержит 104 наименований.

Во введении обоснована актуальность темы диссертационной работы. Определены степень разработанности темы диссертационной работы, ее цель и задачи. Определена научная новизна и перечислены методология и методы исследования. Сформулированы теоретическая и практическая значимости результатов диссертационной работы. Представлены основные положения, выносимые на защиту и достоверность полученных результатов. Представлены сведения об апробации работы, а также список публикаций автора.

В первой главе вводятся понятия и теория нечетких множеств; описаны типы нечетких функций принадлежности, особенно популярные многомерные функции принадлежности; также вводится нечеткая структура модели; анализируются процедуры фазификации, нечеткого вывода и дефазификации. С другой стороны, рассматриваются концепции искусственной нейронной сети, сетевой структуры и общей функции активации. На основе сочетания преимуществ нейронных сетей и нечеткой теории вводятся нечеткие нейронные модели. Представлена структура адаптивной системы нечеткого нейронного вывода ANFIS. Кроме того, описываются и сравниваются алгоритмы обучения для различных нечетких нейронных систем.

Вторая глава содержит основную часть диссертации. В этой главе представлены концепции работы с многомерными функциями принадлежностей. Предлагается вычислить метод вычисления расстояния между двумя многомерными нечеткими функциями принадлежности. Будет предложена структура системы нечеткого вывода, основанная на многомерной функции

принадлежности. Наряду с этим вводится синтетический алгоритм системы нечеткого вывода, основанный на многомерных функциях принадлежности.

В третьей главе сравниваются скорости сходимости алгоритмов распознавания коэффициентов для линейных уравнений в нечеткой нейронной системе. По результатам анализа будет предложен метод использования комбинации алгоритмов для определения коэффициентов линейных уравнений.

В четвертой главе на конкретных примерах будет описано применение алгоритма синтеза нечеткой нейронной модели на основе многомерной функции принадлежности. Таким образом, будут оценены свойства и преимущества предложенной модели.

В заключении приведены основные результаты исследования, выводы по диссертационной работе.

ГЛАВА 1. НЕЙРО-НЕЧЕТКИХ МОДЕЛЕЙ

1.1 Основные понятия и теории нечетких множеств

Заде Л. является основателем теории нечетких множеств со многими статьями, которые проложили путь для развития и применения этой теории [28-30]. Основная идея концепции нечеткого набора Заде состоит в том, чтобы представить семантические абстракции информации, такие как горячий, холодный, высокий, низкий, красивый, ... математическим понятием, называемым нечетким множеством, как обобщение понятий классического (обычного) множества.

В содержании ддиссертационной работы множество обозначается прописными буквами, а его элементы строчными [31, 32]. Принадлежность элемента х множеству X обозначается как х е X. Если элемент х не принадлежит множеству X, то пишем х £ X. Рассмотрим понятие классического множества как понятие функций:

[ 1, если _ х е X Хх [0, если _ х £ X

Хотя Хх и X — два совершенно разных математических объекта, они оба представляют одно и то же понятие множества: х е X тогда и только тогда, когда Хх = 1 или х принадлежит множеству А с «принадлежностью» равной 1. Поэтому функция Хх называется характеристической функцией множества X.

Таким образом, множество X может быть выражено функцией, значением которой является степень принадлежности (или просто принадлежность) элемента из универсального множества X множеству X: если Хх (х) = 1, то х е X со степенью принадлежности 1 или 100% принадлежит X, и если Хх (х) = 0, то х £ X или х е X с принадлежностью 0 ( или 0% принадлежит X).

С такой точки зрения обратимся к поиску семантической репрезентации нечеткого понятия, например, «низкой» температуры окружающей среды. Предположим, что температура окружающей среды находится в диапазоне X = [-50, 50] в градусах. Согласно идее Заде, понятие «низкой» может быть

выражено как набор следующего: Рассмотрим множество Хниз значений температуры, которые считаются «низкими». Итак, возникает вопрос: «Как значение температуры х принадлежит множеству Хниз'?». Субъективно мы можем понять, что значения температуры окружающей среды от -50°С - 0°С однозначно будут принадлежать множеству Хниз, то есть со степенью принадлежности равной 1; но значение температуры окружающей среды х = 10°С, вероятно, принадлежит только множеству Хниз со степенью принадлежности 0,6, а значение х = 30°С будет принадлежать этому множеству со степенью принадлежности 0.

С учетом этого семантика понятия «низкой» будет представлена функцией ¡лнт : X ^ [0, 1], являющейся обобщением упомянутого выше понятия характеристической функции хх классического множества X. 1.1.1 Нечеткие множества Нечеткое множество или подмножество X на универсальном множестве X -это совокупность пар вида [31]

X = {Х(х),х} ,

где X(х): X —> [0,1] - функция принадлежности, отображающая множество X в

единичный отрезок [0, 1].

Носитель нечеткого множества X - подмножество с элементами, имеющими положительные функции принадлежности.

о

X = {х: х е X, X(х) > 0}

Ядром X является подмножество универсального множества X, содержащее элементы со степенью принадлежности, равной 1

Соге(X) = X1 = {х: X(х) = 1, х е X} .

Нечеткое множество X называется пустым тогда и только тогда, когда X(x) = 0 для каждого х £ X.

Нечеткое подмножество Xa а-уровня (а £ [0, 1]) универсального множества Х содержит элементы со степенью принадлежности, не ниже а.

Xа ={х: X(х) >а, х е X}

Объединением нечетких множеств X1 и X2 называется нечеткое множество [31]

X = X1 u X2 = { Xx) v X 2( x), x: x е х} , где X1 (x) v X2 (x) = max {X1 (x), X2 (x)}.

VxeX ^ )

Пересечением нечетких множеств X1 и X2 называется нечеткое множество

[31]

X = X1 n X2 = { X!(x) л X 2( x), x: x е х} где X1 (x) л X2 (x) = min {X1 (x), X2 (x)}

VxeX ^ '

Декартовым произведением нечетких множеств X1t X2, ..., Xm называется нечеткое множество

X = X1 X X2 X ...X Xm = {X(xi, x2 ,..., xm),(xi,x2,..., xm)}

ГДе X,. е X., X x Xn ) = min [ X2( x2 X Xm (xm )]-

Vx eXt

1.1.2 Многомерное нечеткое множество

Во многих случаях лингвистические переменные могут иметь сложную природу и должны быть представлены несколькими связанными параметрами. Предположим, нам нужно нечеткое множество Xxyd для описания множества «худых» людей. «Худой» или «толстый» человек косвенно определяется весом и ростом. Если у человека такой же вес 55 кг, то человек ростом 1м80 называется худым (т.е. степень принадлежности множеству Xxyd равна 1); но при высоте 1м70 можно принадлежать множеству Xxyd с принадлежностью 0,7; люди ростом 1м60 не худые (степень принадлежности к множеству Xxyd равна 0).

С другой стороны, рассмотрим людей с таким же ростом 1м70: человек весом 50кг называется худым (со степенью 1); человек массой 55 кг возможно принадлежитXxyd со степенью 0,7; люди массой 65 кг не принадлежат к множеству худых (степень принадлежности для множества Xxyd равна 0).

Чтобы интерпретировать сложные нечеткие понятия, подобные приведенным выше, мы используем многомерное нечеткое множество.

Многомерным нечетким множеством X является нечеткое множество на многомерном универсальном множестве. Многомерным нечетким множеством на многомерном универсальном множестве ХхХх'"хХ называется совокупность пар вида

Х = {Н(Х1, Х2Хт )'(Х1, Х2Хт )} ,

где, Хг Е Хг' Н(Х1' Х2'...' Хт ) • Х1 Х Х2 Х " Х Хт ^ [0,1] - функция принадлежности, отображающая множество Х1х Х2х ...х Хт в единичный отрезок [0, 1]. 1.1.3 Функция принадлежности

Рис. 1.1. Классификация ФП В практических конкретный вид и параметры ФП определяются на следующих

основаниях: выборки и результатов опроса экспертов [34, 35]; априорных

информаций [36-38]; результата обучения нейронной сети [39].

Методы теории измерений часто используются для представления ФП нечетких множеств [40].

Линейная ФП представлена набором из нескольких линейных зависимостей и различается количеством настраиваемых параметров.

Кусочно-линейная ФП (рис.1.2, а) описывается выражением вида

X (х) =

0, если х е (-да, й1],

———, если х е (йъ й2], й 2 - d1

1, если х е (й2, + да),

(1.1)

<

где (, (2 - точки стыковки линейных участков.

X (х

1 --

X (х)

1 --

х

X (х) 1

(1 (2 (3

х

а)

х

(1 (2 (3 (4 б) в) Рис. 1.2. Линейные ФП Треугольная ФП (рис.1.2, б) представляет собой набор трех точек, образующих треугольник, и отвечает соотношению:

X (х) =

0, если х е (-да, х , если х е ((1, (2 ],

(2 - ( (3 - х

(3 - (2 0, если х е [(3, + да),

(1.2)

если х е ((2, (3),

где (1, (3 - точки левой и правой границ ФП; (2 - координата вершины. Трапецеидальная ФП (рис.1.2, в) имеет аналитическое выражение

0, если х е (-да,

X (х)

х (1

если х е (йх„(2],

(2 - ( 1, если х е ((2, (3),

(1.3)

(4 - х (4 (3

, если х е [(3, (4),

0, если х е [(4, + да),

где (1, (2, (4, (3 — координаты точек вершины и основания трапеции.

Преимуществом линейных функций принадлежности является простота программной реализации. Однако линейные функции принадлежности имеют

<

<

ограниченную гибкость в настройке параметров, что усложняет формирование сложных зависимостей.

Кроме того, линейные функции принадлежности часто не дифференцируемы во всей определенной области, что ограничивает применение методов обучения на основе градиента для настройки параметров нечетких моделей. Поэтому нелинейные функции принадлежности широко используются для построения нечетких моделей, которые обычно представляют собой гауссовы, сигмоидальные и полиномиальные функции.

Сигмовидная функция принадлежности описывается двумя параметрами dl и ё2 (рис.1.3) и широко применяется не только в нечетких системах [41], но также часто используется в качестве функции активации нейронных сетей [42]:

X (х) =

1

1 + е~<2 (х-<1) '

(1.4)

где <

-

- точка центра симметрии ФП на оси х, Х(<)=0.5;

коэффициент пологости, определяющий наклон кривой. Х(х) ' 1 -

0.5

х

Рис. 1.3. Сигмоидная ФП

Гауссовские ФП - это кривые, построенные на основе функций распределения Гаусса, среди которых наибольшей известностью пользуется обобщенная гауссовская ФП, изображённая на рис. 1.4, а

Х(х) , 1

X

а) б)

Рис. 1.4. Обобщенная гауссовая (а) и симметричная колоколообразная (б) ФП Гауссова функция принадлежности описывается следующим образом [31]:

X (х) = е

( х—dl )

2d3

(1.5)

где d1 — координата точки смещения центра симметрии кривой на оси х;

d 2 — коэффициент широты (вариация); d 3 — коэффициент пологости.

Существует три вида полиномиальных функций принадлежности: 2-образной, ¿—образной и п -образной.

Z-образная полиномиальная функция принадлежности (рис. 1.5, а) соединяет две полиномиальные функции в асимметричную кривую. Z-образная полиномиальная функция принадлежности описывается следующей формулой [43]:

X (х)

1, если х е (—да, d1],

I у — //. |2

1 — 2 •

(х — d1)2

2

если х е

— d2)

^, ^ + d2

V

2

(1.6)

(d 2 — х)

2 • -^-г, если х е

Ч +d2 d Л

(dl — d 2)-

V

2

2

У

О, если х е ^2, + да), где d1, (^2 - точки перехода функции в значения 1 и 0 соответственно.

8-образная полиномиальная функция принадлежности симметрична Z-образной полиномиальной функции принадлежности и описывается следующим образом [43]:

d 2

<

X (х) =

0, если х е (-да, <1]

(<2 - <1)

1-1'

2 Г , < + < 2 <ъ — 2

(х - <1)

2--1——, если х е

1 Л (<2 - х)2

1 - 2--2--, если х е

(<2 - <1) 1, если х е [<2, + да),

2

^ <1 + <2

2

где <1 , < 2 - параметры настройки.

Х(х) 1

0.5

<1 + < 2

х

<1 + <2

х

(1.7)

2 2 а) б)

Рис. 1.5. 2-образная (а) и ^-образная (б) ФП

Соотношения, входящие в выражения (1.6) и (1.7), определяют соответствующие сегменты, составляющие ФП на рис. 1.5.

я-образная полиномиальная функция принадлежности (рис.1.6) представляет собой комбинацию 7- и -образных полиномиальных функций принадлежностей и описывается следующим образом:

X (х)

2 •

г л Л2 / х - < '

V < 2 <1

• 1

< < х <

< + <

1 ' 2

2

+

1 - 2

2

<2 - х V < 2 <1 у

• 1

< + <

1 ' 2

2

< х < <

+ 1(х > < 2 )

1(х < <)•

1 - 2 •

V

х - < V<3 <4 у

2

• 1

< + <, < < х < 3 4

V

2

+ 2 •

^ < - х ^ ^ • 1

V<3 <4 у

<3 + <4 ,7 Л

3 4 < х < <

V

2

у

(1.8)

где <1 , < 2 - параметры, определяющие форму и положение левой половины кривой; <3, <4 — параметры, определяющие форму и положение

<

Х(х) 1

Х(х) 1

¿й 42 ё3 х

Х(х) 1 -

dl d2 (з d4 х

(х 2 (З

Рис. 1.6. п -образная ФП при разных значениях (2, (3, 4 1 -0.5 —

(4 (5

(б х

4 х

Рис. 1.7. Обобщенная колоколообразная ФП

Колоколообразная функция принадлежности (рис. 1.7) образована соединением пяти отрезков и имеет трапецеидальную форму. Колоколообразная функция принадлежности представлена следующей формулой:

X (х)

О, если х е (—да,

0.5 •

х — (ц

(2 —

1 — 0.5 •

если х е ((1, (2],

^ (3 — х

V (3 — (2 у

1, если х е ((3, (4],

х — (4

V (5 — (4 у

если х е ((2, (3],

1 — 0.5 •

, если х е ((4, (5],

0.5 •

(б — х V (6 — (5 У

, если х е ((5, (6],

0, если х е ((6, + да),

(1.9)

<

где <1, <2, <, <4, <, < — параметры настройки ФП; 1.1.4 Многомерная функция принадлежности

Для представления многомерных нечетких множеств мы используем многомерные функции принадлежности. Многомерные функции принадлежности также делятся на линейные и нелинейные. Обычно используемая линейная многомерная функция принадлежности представляет собой треугольную многомерную функцию принадлежности.

Линейная многомерная функция принадлежности получается путем триангуляции Делоне [23] их характерных точек.

Похожие диссертационные работы по специальности «Системный анализ, управление и обработка информации (по отраслям)», 05.13.01 шифр ВАК

Список литературы диссертационного исследования кандидат наук Буй Чыонг Ан, 2022 год

СПИСОК ЛИТЕРАТУРЫ

1. Yunlong Lu, Wenyu Li, Hongwei Wang "A Batch Variable Learning Rate Gradient Descent Algorithm With the Smoothing L1/2 Regularization for Takagi-Sugeno Models" IEEE Access vol. 8, pp. 100185 - 100193 May 2020.

2. Tariq Kamal, Murat Karabacak, Syed Zulqadar Hassan, Hui Li; Luis M. Fernández-Ramírez "A Robust Online Adaptive B-Spline MPPT Control of Three-Phase Grid-Coupled Photovoltaic Systems Under Real Partial Shading Condition" IEEE Transactions on Energy Conversion vol. 34, pp. 202 - 210, October 2018.

3. Abhishek Dutta, Abhisek Nayak, Aditya, Rama Ranjan Panda, Naresh Kumar Nagwani "A Neuro Fuzzy System Based Inflation Prediction of Agricultural Commodities" 2020 11th ICCCNT Electronic ISBN:978-1-7281-6851-7, October 2020.

4. Tayane Leite Cerqueira, Fabiana Cristina Bertoni, Matheus Giovanni Pires "Instance Genetic Selection for Fuzzy Rule-based Systems Optimization to Opinion Classification" IEEE Latin America Transactions Vol. 18 pp. 1215 - 1221, May 2020.

5. Joseph C. Chen, Xiaoyun Angela Wang "Development of fuzzy logic and genetic fuzzy commodity price prediction systems — An industrial case study" 2017 IEEE International Conference on Industrial Engineering and Engineering Management (IEEM), Electronic ISBN:978-1-5386-0948-4, February 2018.

6. Donka Ivanova, Martin Dejanov "Fuzzy Logic Control Design Based on the Genetic Algorithm for a Modular Servo System" 2021 17th Conference on Electrical Machines, Drives and Power Systems (ELMA), Electronic ISBN:978-1-6654-3582-6, August 2021.

7. Manuel T. Braz-César, Rui C. Barros, Pedro L.P. Folhento "Fuzzy Controller Optimization Using a Genetic Algorithm for Non-Collocated Semi-Active MR Based Control of a Three-DOF Framed Struture" 2018 13th APCA International Conference on Automatic Control and Soft Computing (CONTROLO), Electronic ISBN:978-1-5386-5346-3, November 2018.

8. Ivan Riano, Oscar E. Perdomo "Electricity price forecasting using a fuzzy system tuned with a Differential Evolution algorithm" 2015 IEEE PES Innovative Smart Grid Technologies Latin America (ISGT LATAM), Electronic ISBN:978-1-4673-6605-2, January 2016.

9. Cao Van Kien; Nguyen Ngoc Son; Ho Pham Huy Anh "Identification of 2-DOF pneumatic artificial muscle system with multilayer fuzzy logic and differential evolution algorithm" 2017 12th IEEE Conference on Industrial Electronics and Applications (ICIEA), Electronic ISBN:978-1-5090-6161-7, February 2018.

10.Manel Elloumi, Mohamed Krid, Dorra Sellami Masmoudi "Neuro-fuzzy system based on particle swarm optimization algorithm for image denoising application" 2015 International Conference on Advances in Biomedical Engineering (ICABME), Electronic ISBN: 978-1 -4673-6516-1, November 2015.

11.S. Sharma, U. Kalra, S. Srivathsan, K.P.S. Rana, V. Kumar "Efficient air pollutants prediction using ANFIS trained by Modified PSO algorithm" 2015 4th International Conference on Reliability, Infocom Technologies and Optimization (ICRITO), Electronic ISBN:978-1 -4673-7231 -2, December 2015.

12.Wenguang Yang, Lianhai Lin, Shu Yang "Automatic truck backer-upper based on Ant Colony Optimization" 2016 35th Chinese Control Conference (CCC), Electronic ISBN: 978-9-8815-6391-0, August 2016.

13.Chia-Feng Juang, Chan-Hung Lin, Trong Bac Bui "Multiobjective Rule-Based Cooperative Continuous Ant Colony Optimized Fuzzy Systems With a Robot Control Application" IEEE Transactions on Cybernetics Vol. 50, pp. 650 - 663, October 2018.

14. Shun-Hung Tsai, Yu-Wen Chen "A Novel Fuzzy Identification Method Based on Ant Colony Optimization Algorithm" IEEE Access Vol. 4, pp. 3747 - 3756, June 2016.

15.Kuang-Pen Chou, Chin-Teng Lin, Wen-Chieh Lin "A self-adaptive artificial bee colony algorithm with local search for TSK-type neuro-fuzzy system training" 2019 IEEE Congress on Evolutionary Computation (CEC), Electronic ISBN:978-1-7281-2153-6, August 2019.

16.Qibing Jin, Chen Wang, Hehe Wang, Wu Cai, Yaxu Niu "Hybrid Fuzzy Cuckoo Search Algorithm for MIMO Hammerstein Model Identification Under Heavy-Tailed Noises" 2018 37th Chinese Control Conference (CCC), Electronic ISBN:978-988-15639-5-8, October 2018.

17.Liu Han, Deng Yi, Zhang Lifan, Liu Ding "Neuro-fuzzy control based on on-line least square support vector machines" 2015 34th Chinese Control Conference (CCC), Electronic ISBN:978-9-8815-6389-7, September 2015.

18.Mahmoodreza Arefi, Badrul Chowdhury "Ensemble adaptive neuro fuzzy support vector machine for prediction of transient stability" 2017 North American Power Symposium (NAPS), Electronic ISBN:978-1-5386-2699-3, November 2017.

19.Asma Hasifa Nurcahyono, Fhira Nhita, Deni Saepudin, Annisa Aditsania "Price Prediction of Chili in Bandung Regency Using Support Vector Machine (SVM) Optimized with an Adaptive Neuro-Fuzzy Inference System (ANFIS)" 2019 7th International Conference on Information and Communication Technology (ICoICT), Electronic ISBN:978-1-5386-8052-0, September 2019.

20.Abdunaser Abdusamad, Mohamed Aburakhis "Adaptive Control of Nonlinear Systems Represented by Extreme Learning Machine (ELM) and the Fuzzy Logic Control (FLC)" 2021 IEEE 1st International Maghreb Meeting of the Conference on Sciences and Techniques of Automatic Control and Computer Engineering MI-STA, Electronic ISBN:978-1-6654-1856-0, June 2021.

21.Chen-Sen Ouyang, Tzu-Chin Kao, Yu-Yuan Cheng, Chih-Hung Wu, Chiung-Hui Tsai, Meng-Wei Wu "An Improved Fuzzy Extreme Learning Machine for Classification and Regression" 2016 International Conference on Cybernetics, Robotics and Control (CRC), Electronic ISBN:978-1-5090-3572-4, January 2017.

22.Rolando A. Hernandez-Hernandez, Uriel Martinez-Hernandez, Adrian Rubio-Solis "Multilayer Fuzzy Extreme Learning Machine Applied to Active classification and Transport of objects using an Unmanned Aerial Vehicle" 2020 IEEE International Conference on Fuzzy Systems (FUZZ-IEEE), Electronic ISBN:978-1-7281-6932-3, August 2020.

23.J. Abonyi, R. Babuska, F. Szeifert "Fuzzy modeling with multivariate membership functions: gray-box identification and control design" IEEE Transactions on Systems, Man, and Cybernetics, Part B (Cybernetics) Vol. 31, pp. 755 - 767, Oct. 2001.

24.Dongyeop Kang,Woojong Yoo, Sangchul Won "Multivariable TS fuzzy model identification based on mixture of Gaussians" 2007 International Conference on Control, Automation and Systems, December 2007.

25.Andre Lemos, Walmir Caminhas, Fernando Gomide "Multivariable Gaussian Evolving Fuzzy Modeling System" IEEE Transactions on Fuzzy Systems Vol. 19, pp. 91 - 104, October 2010.

26.Mahardhika Pratama, Sreenatha. G. Anavatti, Plamen. P. Angelov, Edwin Lughofer "PANFIS: A Novel Incremental Learning Machine" IEEE Transactions on Neural Networks and Learning Systems, Vol. 25, pp. 55 - 68, July 2013.

27.José Miguel Adánez Basil, Mohammed Al-Hadithi, Agustín Jiménez "Multidimensional membership functions in T-S fuzzy models for modelling and identification of nonlinear multivariable systems using genetic algorithms", Applied Soft Computing Vol. 75, pp. 607-615, February 2019.

28.Zadeh L. A. Fuzzy sets // Information and Control, 1965. №. 8. - P. 338-353.

29.Zadeh L. A. Fuzzy logic, neural networks, and soft computing // Communications of the ACM, 1994. Vol. 37, № 3 - pp 77-84.

30.Заде Л. Понятие лингвистической переменной и его применение к принятию приближенных решений. - М. Мир, 1976. - с. 168.

31.Кудинов Ю.И., Келина А.Ю., Кудинов И.Ю., Пащенко А.Ф., Пащенко Ф.Ф. Нечеткие модели и системы управления М.: ЛЕНАНД, 2017 - 328 с.

32.Кофман А. Введение в теорию нечетких множеств. - М.: Радио и связь, 1982. -с. 432.

33.Халов, Е. А. Одномерные многопараметрические функции принадлежности в задачах нечеткого моделирования и управления / Е. А. Халов // Мехатроника, автоматизация, управление, 2007. - N 4. - С. 54.

34.Борисов А. Н., Алексеев А. В., Крумберг О. А. и др. Модели принятия решений на основе лингвистической переменной. - Рига: Зинатне, 1982. - 256 с.

35.Henri Prade. A Computational Approach to Approximate and Plausible Reasoning with Applications to Expert Systems // IEEE Transactions on Pattern Analysis and Machine Intelligence, 1985. Vol. PAMI-7, № 3.pp 260 - 283.

36.Bellman R., Kalaba R.,Zadeh L. Abstraction and pattern classification // Journal of Mathematical Analysis and Applications., 1966. - Vol. 13, № 1. - P. 1-7.

37.Ken Nozaki, Hisao Ishibuchi. Adaptive fuzzy rule-based classification systems // IEEE TRANSACTIONS ON FUZZY SYSTEMS, Vol. 4, №. 3, pp. 238 - 250.

38.Алтунин А.Е., Востров Н.Н. Методы определения функций принадлежности в теории размыхтых множеств // Труды Запсиб-НИГНИ. - Тюмень, 1980. С. 62 -72.

39.Koji Shimojima, Toshio Fukuda, Yasuhisa Hasegawa. Self-tuning fuzzy modeling with adaptive membership function, rules, and hierarchical structure based on genetic algorithm //Fuzzy Sets and Systems, 1995. Vol. 71, №. 3. P. 295-309.

40.Пфанцарль И. Теория измерений. - М.: Мир, 1976. - 166 с.

41.Cybenko G. Approximation by superpositions of a sigmoidal function // Mathematics of Control, Signals and Systems, 1989. Vol. 2, pp. 303-314.

42.Ito Y. Representation of functions by superpositions of a step or sigmoid function and their applications to neural network theory // Neural Networks, 1991. Vol. 4, No. 3. P. 385-394.

43. Дьяконов В.П., Абраменкова И.В., Крунлов В.В. MATLAB 5.3.1 с пакетами расширений. - М.: Нолидж, 2001. - 880 с.

44.Ali Y.M., Zhang L. A methodology for fuzzy modeling of engineering systems // Fuzzy Sets and Systems, 2001. No. 118. P. 181-197.

45.Mahalanobis, Prasanta Chandra. On the generalised distance in statistics // Proceedings of the National Institute of Sciences of India, 1936. — Т. 2, № 1. — P. 49—55.

46.Md Meftahul Ferdaus , Mahardhika Pratama , Sreenatha G. Anavatti , Matthew A. Garratt , Yongping Pan. Generic Evolving Self-Organizing Neuro-Fuzzy Control of Bio-Inspired Unmanned Aerial Vehicles // IEEE TRANSACTIONS ON FUZZY SYSTEMS, 2020. Vol. 28., No. 8., pp. 1542 - 1556.

47.Кудинов Ю.И. Нечеткие модели вывода в экспертных системах // Известия РАН. Теория и системы управления, 1997. - № 5. - С. 75-83.

48.Ростовцев В.С. Искусственные нейронные сети // М.: Издательство "Лань", 2019. - 216 с.

49.Vinod Nair, Geoffrey E. Hinton. Rectified Linear Units Improve Restricted Boltzmann Machines // 27th International Conference on International Conference on Machine Learning, 2010. — С. 807-814.

50.Krizhevsky A., Sutskever I., Hinton G.E. ImageNet Classification with Deep Convolutional Neural Networks // Communications of the ACM, 2017. Vol. 60. № 6.- P. 84-90.

51. Maas A.L., Hannun A.Y., Ng A.Y. Rectifier Nonlinearities Improve Neural Network Acoustic Models // Proceedings of the 30th International Conference on Machine Learning. Vol. 28. No. 3, 2013.

52.Bui Tr.A., Pashchenko F. F., Pashchenko A. F., Kudinov Y.I. Using Neural Networks To Predict Exchange Rates // 2020 13th International Conference "Management of large-scale system development" (MLSD), 2020. - P. 1-5.

53.Pashchenko F. F., Bui Tr. A., Tran D.H., Pashchenko A. F., Nguyen V.Tr., Intelligent Technologies in Decision-Making Support Systems // 2020 International Conference Engineering and Telecommunication (En&T), 2020. - P. 1-4.

54.Jang, J.-S.R. ANFIS: adaptive-network-based fuzzy inference system // IEEE Transactions on Systems, 1993. Vol. 23, No. 3. - P. 665 - 685.

55.Mamdani E.H. Application of fuzzy algorithms for control of simple dynamic plant // Proceedings of the IEEE, Vol. 121, No. 12, 1974, P. 1585-1588.

56.Curry, Haskell B. The Method of Steepest Descent for Non-linear Minimization Problems // Quart. Appl. Math, 1944. Vol. 2. No.3.- P. 258-261.

57.Shi Y., Mizumoto M. Some considerations on conventional neuro-fuzzy learning algorithms by gradient descent method // Fuzzy Sets and Systems, 2000. Vol. 112, No. 1.- P. 51-63.

58.Huang G., Siew C. Extreme Learning Machine with Randomly Assigned RBF Kernels // International Journal of Information Technology, 2005. Vol. 11. No. 1.- P. 16-24.

59.Huang G. B., Zhu Q. Y., Siew C. K. Extreme learning machine: Theory and applications // Neurocomputing, 2006. Vol. 70. No. 1-3.- P. 489-501.

60.Huang G.B., Ding X., Zhou H. Optimization method based extreme learning machine for classification // Neurocomputing, 2010. Vol. 74.- P. 155-163.

61.Huang G. B., Wang D. H., Lan Y. Extreme learning machines: A survey // International Journal of Machine Learning and Cybernetics, 2011. Vol. 2. No. 2.- P. 107-122.

62.Wang N., Er M. J., Han M. Generalized single-hidden layer feedforward networks for regression problems // IEEE Transactions on Neural Networks and Learning Systems, 2015. Vol. 26. No. 6.- P. 1161-1176.

63.Liu X., Lin S., Fang J., Xu Z. Is extreme learning machine feasible? A theoretical assessment (Part II) // IEEE Transactions on Neural Networks and Learning Systems, 2015. Vol. 26. No. 1.- P. 21-34.

64.Huang G.B., Chen L., Siew C.-K. Universal Approximation Using Incremental Constructive Feedforward Networks With Random Hidden Nodes // IEEE Transactions on Neural Networks, 2006. Vol. 17. No. 4.- P. 879-892.

65.Huang G.B., Li M. B., Chen L., Siew C. K. Incremental extreme learning machine with fully complex hidden nodes // Neurocomputing, 2008. Vol. 71. No. 4-6.- P. 576583.

66.Liang N.Y., Huang G.B., Saratchandran P., Sundararajan N. A Fast and Accurate Online Sequential Learning Algorithm for Feedforward Networks // IEEE Transactions on Neural Networks, 2006. Vol. 17. No. 6.- P. 1411-1423.

67.Miche Y., Sorjamaa A., Bas P., Simula O., Jutten C., Lendasse A. OP-ELM: Optimally Pruned Extreme Learning Machine // IEEE Transactions on Neural Networks, 2010. Vol. 21. No. 1.- P. 158-162.

68.Zhang W. B., Ji H. B. Fuzzy extreme learning machine for classification // Electronics Letters, 2013. Vol. 49, No. 7.- P. 448-450.

69.Sun Z. L., Au K.F., Choi T.M. A neuro-fuzzy inference system through integration of fuzzy logic and extreme learning machines // IEEE transactions on systems, man, and cybernetics, 2007. Part B, Cybernetics. Vol. 37, No. 5. - P. 1321-1331.

70.Rong H. J., Huang G. B., Sundararajan N., Saratchandran P. Online Sequential Fuzzy Extreme Learning Machine for Function Approximation and Classification Problems // IEEE Transactions on Systems, Man, and Cybernetics, 2009. Part B: Cybernetics. Vol. 39, No. 4.- P. 1067-1072.

71.Pouzols F. M., Lendasse A. Evolving fuzzy optimally pruned extreme learning machine for regression problems // Evolving Systems, 2010. Vol. 1, No. 1.- P. 43-58.

72.Qu Y., C., Shang W. W., Shen Q. Evolutionary fuzzy extreme learning machine for mammographic risk analysis // International Journal of Fuzzy Systems, 2011. Vol. 13, No. 4, P. 282-291.

73.Wong S. Y., Yap K. S., Yap H. J., Tan S. C., Chang S. W. On equivalence of FIS and ELM for interpretable rule-based knowledge representation // IEEE Transactions on Neural Networks and Learning Systems, 2015. Vol. 26, No. 7.- P. 1417-1430.

74.Thomas S., Pillai G. N., Pal K., Jagtap P. Prediction of ground motion parameters using randomized ANFIS (RANFIS) // Applied Soft Computing, 2016. Vol. 40.- P. 624-634.

75.Shihabudheen K.V., Pillai G. N. Regularized extreme learning adaptive neuro-fuzzy algorithm for regression and classification // Knowledge-Based Systems, 2017. Vol. 127.- P. 100-113.

76.Mitchell M. An Introduction to Genetic Algorithms. MA: MIT Press, 1996. -P. 221.

77.Rainer M.S., Price K. Differential Evolution — A Simple and Efficient Heuristic for Global Optimization over Continuous Spaces // Journal of Global Optimization, 1997. Vol. 11.- P. 341-359.

78.Kennedy, J., Eberhart, R. Particle Swarm Optimization // Proceedings of IEEE International Conference on Neural Networks, 1995. Vol. IV. -P. 1942-1948.

79.Ratnaweera A., Halgamuge S. K., Watson H. C. Self-organizing hierarchical particle swarm optimizer with time-varying acceleration coefficients // IEEE Transactions on Evolutionary Computation,2004. Vol. 8, No. 3.- P. 240-255.

80.Roy R., Dehuri S., Cho S. B. A Novel Particle Swarm Optimization Algorithm for Multi-Objective Combinatorial Optimization Problem // International Journal of Applied Metaheuristic Computing, 2011. Vol. 2, No. 4.- P. 41-57.

81.Cheung A., Ding X.M., Shen H.B. OptiFel: A Convergent Heterogeneous Particle Swarm Optimization Algorithm for Takagi Sugeno Fuzzy Modeling // IEEE Transactions on Fuzzy Systems, 2014. Vol. 22. No. 4.-P. 919-933.

82.Wang Z., Dong J., Wang M., Mo J. Antenna Topology Optimization Based on Angle-modulated Bat Algorithm // 2020 IEEE MTT-S International Conference on Numerical Electromagnetic and Multiphysics Modeling and Optimization (NEMO), 2020. -P. 1-3.

83.Espinal-De-La-Cruz D., Inca S., Clemente-Arenas M. Optimization of an 8-Patch Serial Antenna Using Bat Algorithm for 5G Applications // 2021 IEEE XXVIII International Conference on Electronics, Electrical Engineering and Computing (INTERCON), 2021.-P. 1-4.

84.Yang X. S. A New Metaheuristic Bat-Inspired Algorithm // Nature Inspired Cooperative Strategies for Optimization (NISCO 2010), 2010. -P. 65 - 74.

85.Dorigo M., Birattari M., Stutzle T. Ant colony optimization // IEEE Computational Intelligence Magazine, 2006. Vol. 1. No. 4.- P. 28- 39.

86.Blum C. Ant colony optimization: Introduction and recent trends // Physics of Life Reviews, 2005. Vol. 2. No. 4.-P. 353-373.

87.Zhao B. Optimal Design of Neuro-Fuzzy Controller Based on Ant Colony Algorithm // Proceedings of the 29th Chinese Control Conference, 2010.- P. 2513- 2518.

88.Ram S.S., Kumar C., Madhumitha J., Nandhini K. M. Design and Comparison of ACO and Fuzzy PID Controllers for Fermenter System //2021 5th International Conference on Computing Methodologies and Communication (ICCMC), 2021. -P. 689 - 694.

89.Akanskha E., Sahoo A., Gulati K., Jyoti. S, Sharma N. Hybrid Classifier Based on Binary Neural Network and Fuzzy Ant Colony Optimization Algorithm //2021 5th International Conference on Trends in Electronics and Informatics (ICOEI), 2021. -P. 1613 - 1619.

90.Sharma S. Penalty Driven Training Sample Refinement Technique for Hyperspectral Images Classification Using Ant Colony Optimization // IGARSS 2020 - 2020 IEEE International Geoscience and Remote Sensing Symposium, 2020.- P. 6953 - 6957.

91.REINEIX A., GUIFFAUT Christophe. Equivalent dipole model optimized by Ant Colony Optimization Algorithm for modeling antennas in their context // 2018 13th Annual Conference on System of Systems Engineering (SoSE), 2018. -P. 259-264.

92.Fidanova S, Roeva O, Ganzha M. Ant Colony Optimization Algorithm for Fuzzy Transport Modelling // 2020 15th Conference on Computer Science and Information Systems (FedCSIS), 2020.- P. 237-241.

93.Aoyang H., Shengqi Z., Xuehui J., Zhisheng Z. Short-term Load Forecasting Model Based on RBF Neural Network Optimized by Artificial Bee Colony Algorithm // 2021 IEEE 2nd International Conference on Big Data, Artificial Intelligence and Internet of Things Engineering (ICBAIE), 2021.- P. 486-490.

94.Bing X., Youwei Z., Xueyan Z., Xuekai S. An Improved Artificial Bee Colony Algorithm Based on Faster Convergence // 2021 IEEE International Conference on Artificial Intelligence and Computer Applications (ICAICA), 2021.- P. 776 -780.

95.Zhang Z., Su W., Zhou K. Airborne radar sub array partitioning method based on artificial bee colony algorithm // 2019 IEEE 3rd Information Technology, Networking, Electronic and Automation Control Conference (ITNEC), 2019.- P. 484 - 489.

96.Karaboga D. An idea based on honey bee swarm for numerical optimization // Technical report-tr06, Erciyes university, engineering faculty, computer engineering department, 2005.

97.Cortes C., Vapnik V. Support Vector Networks // Machine Learning, 1995. Vol. 20. No. 3.- P. 273-297.

98.Suykens J. A. K., Vandewalle J. Least Squares Support Vector Machine Classifiers // Neural Processing Letters, 1999. Vol. 9. No. 3.- P. 293-300.

99.Fung G., Mangasarian O.L. Proximal Support Vector Machine Classifiers // Proceedings of the seventh ACM SIGKDD international conference on Knowledge discovery and data mining, 2001, pp. 77-86.

100. Fung G., Mangasarian O.L. Multicategory proximal support vector machine classifiers // Machine Learning, 2005. Vol. 59.- P. 77-97.

101. Mahardhika Pratama, Sreenatha G. Anavatti, Edwin Lughofer. GENEFIS: Toward an Effective Localist Network // IEEE Transactions on Fuzzy Systems, June 2014. Vol. 22, No. 3. - pp. 547 -562.

102. Аветисян А. Р., Пащенко А.Ф., Пащенко Ф.Ф., Пикина Г.А., Филиппов Г.А.. Теплогидравлические модели оборудования электрических станций / Под. Общ. Ред. Г. А. Филиппова, Ф.Ф. Пащенко. - М.: ФИЗМАЛИТ, 2013. - 448 с.

103. Аксенов В.М. Пащенко Ф.Ф. Об адаптивной идентификации объектов в замкнутах системах. Автоматика и телемеханика, 1980, № 10, с. 70 -80.

104. Каменев А.В., Пащенко А.Ф., Пащенко Ф.Ф. Нейронечеткая система моделирования с выбором информативных переменных // Датчики и системы, 2019. № 7-8. С. - 8-14.

ПРИЛОЖЕНИЕ

Приложение 1. Код программы для синтеза системы нечеткого вывода на основе многомерных гауссовских функций принадлежности

import numpy as np import matplotlib.pyplot as plt import itertools import math

def create_rules(X, num_term, Gamma):

"""Brief: generate fuzzy rules from the dataset Input

X: input training data num_term: input space divisor Gamma: spatial width of the fuzzy rule Output:

mean: center of fuzzy rules

sig_inv: inverse matrices of covariance matrices""" memFuncsByVariable = [[x for x in range(num_term)] for z in range (X.shape[1]

)]

rules = np.array(list(itertools.product(*memFuncsByVariable)))

Xmax = np.max(X, axis = 0

Xmin = np.min(X, axis = 0

Delta = (Xmax - Xmin)/num_term

sigma = Delta/(2*Gamma)

mean_dimention = np.array([Xmin + Delta*(i+1/2) for i in range(num_term)]) mean = np.array([[mean_dimention[rules[j][i]][i] for i in range(X.shape[1])] for j in range(rules.shape[0])]) sig_inv = np.zeros((mean.shape[0], mean.shape[1], mean.shape[1])) for i in range(mean.shape[0]): for j in range(mean.shape[1]):

sig_inv[i][j][j] = 1/pow(sigma[j],2) return mean, sig_inv

def Gauss_maha(x,mean,sig_inv):

"""Brief: calculate the membership of the input for each fuzzy rule Input

X: set of input points

mean: center of fuzzy rules

sig_inv: inverse matrices of covariance matrices Output:

R: membership of the input to fuzzy rules""" x = x.reshape(-1, mean.shape [1]) R = np.array([[np.exp(-0.5*np.dot(np.dot(x[k] - mean[i], sig_inv[i]), (x[k] - mean[i]).T)) for i in r ange(mean.shape[0])] for k in range(x.shape[0])]) return R

def constant(X,Y, mean, sig_inv):

"""Brief: consequential parameter identification Input

X: set of input points

Y: target

mean: center of fuzzy rules

sig_inv: inverse matrices of covariance matrices Output:

c: the consequential parameter of fuzzy rules""" beta= forwardhalf(X, mean, sig_inv) c = LSE(beta,Y) return c

def forwardhalf(X, mean, sig_inv):

"""Brief: calculate the parameters to identification the consequences Input

X: set of input points

mean: center of fuzzy rules

sig_inv: inverse matrices of covariance matrices Output:

beta: the consequential parameter of fuzzy rules""" if X.ndim == 1:

X = np.expand_dims(X, axis=0) w = Gauss_maha(X, mean,sig_inv) bb= np.sum(w, axis = 1 bb[bb == 0] = 0.0001 beta=w/bb.reshape(-1,1 return beta

def LSE(A, B, initialGamma = 1000.):

"""Brief: least squares error Input

A: set of input points B: target Output:

x is a matrix, such that ||Ax - B|| smallest""" coeffMat = A rhsMat = B

S = np.eye(coeffMat.shape[1])*initialGamma

x = np.zeros((coeffMat.shape[1],1)) # need to correct for multi-dim B for i in range(len(coeffMat[:,0])): a = coeffMat[i,:] b = np.array(rhsMat[i])

S = S - (np.array(np.dot(np.dot(np.dot(S,np.matrix(a).transpose()),np.matr ix (a)),S)))/(1+(np.dot(np.dot(S,a) ,a)))

x = x + (np.dot(S,np.dot (np.matrix (a) .transposed ,(np.matrix (b)-np.dot(np.matrix(a),x))))) return x

def Generalized(A, B): y = B.reshape(-1 X = A.T gamma = 0.1

a1 = np.linalg.norm(X[:,0]) ** 2 if a1==0:

a1 = 0.0000001 C_g = (y[0] / a1) * X[:, 0] for i in range(A.shape[0]):

a1 = np.linalg.norm(X[:,i])**2 if a1==0:

a1 = 0.0000001

C_g = C_g + (C_g.T.dot(X[:,i]) - y[i]) * (C_g.T.dot(X[:,i]) * C_g / (nor m(C_g)** 2) - X[:,i]) / (a1 * sin2(C_g, X[:,i]) + gamma) return C_g.reshape((A.shape[1],1))

def Kaczmarz(X,y):

C_k = np.zeros((X.shape[1],1)) N = X.shape [0] for i in range(N):

a1= np.linalg.norm(X[i,:])**2 if a1==0:

a1 = 0.0000001

C_k = C_k + ((y[i] - np.dot(X[i,:],C_k)) * X[i,:].T/a1).reshape(C_k.shap

return C_k

def loss(X,Y, mean, sig_inv,c):

"""Brief: calculate the error of the model with the data set (X,Y) Input

X: set of input points mean: center of fuzzy rules

sig_inv: inverse matrices of covariance matrices Output:

x is a matrix, such that ||Ax - B|| smallest""" logits= forward(X,mean, sig_inv, c)

loss=np.mean(np.multiply(np.subtract(Y,logits),np.subtract(Y,logits))) return loss

def forward(X, mean, sig_inv, c):

"""Brief: calculate the output of the model Input

X: set of input points mean: center of fuzzy rules

sig_inv: inverse matrices of covariance matrices c: consequential parameters Output:

logits: output of model with input x""" logits = np.dot(forwardhalf(X, mean, sig_inv), c) return logits

def inter2_rule(mean, sig_inv, i, j, alpha):

"""Brief: distance between two fuzzy rules on the alpha section Input

mean: center of fuzzy rules

sig_inv: inverse matrices of covariance matrices i,j : index of two fuzzy sets to calculate the distance alpha: cross-sectional threshold Output:

S: distance between two fuzzy sets i and j"""

#If two fuzzy sets overlap or have membership > 0.999, return S = min if all(mean[i] == mean[j]): return -10000

D_euclid = np.linalg.norm(mean[j] - mean[i])

k = 0.5 Rij = 0

while not 0.0001 < Rij < 0.999: if Rij < 0.0001: k*=2

Rij = np.exp(-

0.5*np.dot(np.dot((mean[j] - mean[i])/k, sig_inv[i]), ((mean[j] - mean[i])/k). T)) #Do thuoc cua tam j doi voi ham lien thuoc i if Rij > 0.999: return -10000

Nd = k*math.sqrt(math.log(Rij, alpha)) dij = (Nd-1)*D_euclid/Nd

k = 0.5 Rji = 0

while not 0.0001 < Rji <0.999: if Rji < 0.0001: k*=2

Rji = np.exp(-

0.5*np.dot(np.dot((mean[i] - mean[j])/k, sig_inv[j]), ((mean[i] - mean[j])/k). T)) #Do thuoc cua tam i doi voi ham lien thuoc j

if Rji > 0.99: return -10000

Nd = k*math.sqrt(math.log(Rji, alpha)) dji= (Nd-1)*D_euclid/Nd S = dij + dji - D_euclid return S

def inter_base_rule(mean, sig_inv, alpha):

"""Brief: distance between fuzzy rules in base rule Input

mean: center of fuzzy rules

sig_inv: inverse matrices of covariance matrices alpha: cross-sectional threshold Output:

inter : square matrix containing distances between fuzzy rules""" inter = 10 0 0*np.ones((mean.shape[0], mean.shape[0])) for i in range(mean.shape[0]): for j in range (i) : if i == j: break;

inter[i][j] = inter [j][i] = inter2_rule(mean, sig_inv, i,j, alpha) return inter

def merge_rule(mean1, sig_inv1, i, j, alpha): mean = np.copy(mean1) sig_inv = np.copy(sig_inv1)

#determine the vector and the distance between the fuzzy centers i and j mean_vecto = mean[j] - mean[i] D_euclid = np.linalg.norm(mean_vecto)

#Define radius of membership function i k = 1

j Rulei = 0

while jRulei < 0.001: k*=2

#Membership of j-th center to fuzzy set i jRulei = np.exp(-0.5*np.dot(np.dot(mean_vecto/k, sig_inv[i]), (mean_vecto/k).T)) Ndi = k*math.sqrt(math.log(jRulei, alpha))

Ri = mean_vecto/Ndi #radius of membership function i

#Define radius of membership function j k = 1

iRulej = 0

while iRulej < 0.001: k*=2

#Membership of i-th center to fuzzy set j iRulej = np.exp(-0.5*np.dot(np.dot(mean_vecto/k, sig_inv[j]), (mean_vecto/k).T)) Ndj = k*math.sqrt(math.log(iRulej, alpha))

Rj = mean_vecto/Ndj #radius of membership function j

#radius vector of the new membership function Xd = np.array([(mean_vecto + Ri + Rj)/2])

#Center of the new membership function mean[i] = mean[i] + (mean_vecto + Rj - Ri)/2 #The inverse matrix of the new covariance matrix

sig_inv[i] = np.linalg.inv((np.linalg.inv(sig_inv[i])+np.linalg.inv(sig_inv[ j]))/2 + (1/pow(2.5,2))*np.dot(Xd.T, Xd))

#Delete the j .th membership function mean = np.delete(mean,(j), axis = 0 sig_inv = np.delete(sig_inv, (j), axis = 0) if i >j: i -= 1

#adjust fuzzy rules near i

distant = inter_base_rule(mean,sig_inv, alpha) for k in range(mean.shape[0] -1, -1, -1):

#Ignoring fuzzy rule i if k == i: continue

#Remove fuzzy rules that coincide if distant[i][k] == -10000:

mean = np.delete(mean,(k), axis sig_inv = np.delete(sig_inv, (k) if k < i: i-=1 continue

#narrowing the fuzzy rules intersecting the i-th fuzzy rule if distant[i][k] < 0:

D_euclid = np.linalg.norm(mean[k] - mean[i]) h = 1 Rik = 0

while Rik < 0.001: h*=2

Rik = np.exp(-

0.5*np.dot(np.dot((mean[k] - mean[i])/h, sig_inv[i]), ((mean[k] - mean[i])/h). T))

Nd = h*math.sqrt(math.log(Rik, alpha))

with i = 0

, axis = 0)

dik= (Nd-1)*D_euclid/Nd

h = 1 Rki = 0

while Rki < 0.001: h*=2

Rki = np.exp (-

0.5*np.dot(np.dot((mean[i] - mean[k])/h, sig_inv[k]), ((mean[i] - mean[k])/h). T))

Nd = h*math.sqrt(math.log(Rki, alpha)) dki= (Nd-1)*D_euclid/Nd #radius of fuzzy rules i and j Ri = D_euclid - dik Rk = D_euclid - dki

#Remove k-th fuzzy rule if k-th fuzzy rule is in i-th fuzzy rule if abs(distant[i][k]) > 2*Rk:

mean = np.delete(mean,(k), axis = 0 sig_inv = np.delete(sig_inv, (k), axis = 0) if k < i: i-=1 continue

#Adjust k-th fuzzy rule if k-th fuzzy rule intersects i-th fuzzy rule DeltaX = np.array([(mean[k] - mean[i])*abs(distant[i][k])/D_euclid]) mean[k] += DeltaX[0]/2

sig_inv[k] = np.linalg.inv(np.linalg.inv(sig_inv[k]) - np.dot(DeltaX.T, DeltaX)/25

return mean, sig_inv

class MDMF_FS:

a a a

Fuzzy inference system with multidimensional membership function Attribute:

self.Xmax, self.Xmin: information to normalize input self.mean: center of fuzzy rules

self.sig_inv: inverse matrices of covariance matrices self.const: consequential parameters

Function:

self.logit(X): the output of the model corresponds to the input X self.test(X, Y): check model errors with input - output pairs (X,Y) self.plotMF(): diagram of the fuzzy rules of the system

self.plotMF_2d(alpha): distribution of fuzzy rules on the alpha section. 11 11 11

def _init_(self, X0, Y, term_num = 10, alpha = 0.044, beta = 0.5, loss_cro

ss_min = 0.0001,

loss_cross_max = 1., num_rule = 5, X_val = None, Y_val = None):

11 11 11

Create model

X0, Y: Input - target (train data) term_num: input space divisor alpha: cross-

sectional threshold to determine the coverage of the fuzzy rule beta: cross-

section threshold to extend the fuzzy rule after determining the centers loss_cross_min: error threshold for merging two fuzzy rules num_rule: desired number of fuzzy rules

a a a

#Input Normalization

self.Xmax = np.max(X0, axis = 0

self.Xmin = np.min(X0, axis = 0

X = (X0 -self.Xmin)/(self.Xmax - self.Xmin)

#Intermediate parameters

Delta = 2*(np.max(X, axis = 0) - np.min(X, axis = 0))/(term_num*3) dmin = math.sqrt(np.sum(pow(Delta, 2))) Gamma = math.sqrt(2*abs(math.log(alpha)))

#Create the initial fuzzy rule set

mean, sig_inv = create_rules(X, term_num, Gamma)

#Delete empty fuzzy rules

Rule = np.sum(Gauss_maha(X, mean, sig_inv), axis = 0) indices = [i for (i,v) in enumerate(Rule) if v < math.exp(-0.5*X.shape[1]*pow(Gamma, 2))]

mean = np.delete(mean, indices, 0 sig_inv = np.delete(sig_inv, indices, 0)

#consequential parameter identification c = constant(X, Y, mean, sig_inv) high_loss = False

#Collapse the fuzzy rule set while mean.shape[0] > num_rule:

pre_loss = loss(X,Y, mean, sig_inv, c)

print("Numer of rule: ", mean.shape[0],", loss:", pre_loss) distant = inter_base_rule(mean,sig_inv, alpha) for i in range(distant.shape[0]):

for j in range(i,distant.shape[0]): distant[i][j] = 10000

ddmin = dmin dem = 0

arg = np.argwhere(distant < ddmin) while arg.size == 0: ddmin *=2

arg = np.argwhere(distant < ddmin) #calculate the output difference between fuzzy rules

S = np.array([abs(c[arg[i][0]] - c[arg[i][1]]) for i in range (arg.shape[

0])])

while 1:

min_index = np.argmin(S)

i_min, j_min = arg[min_index][0], arg[min_index][1]

mean_new, sig_inv_new = merge_rule(mean, sig_inv, i_min, j_min, alpha) c_new =constant(X, Y, mean_new, sig_inv_new) new_loss = loss(X, Y, mean_new, sig_inv_new, c_new) if new_loss - pre_loss < loss_cross_min: mean = mean_new sig_inv = sig_inv_new c = c_new break else:

S[min_index] = 10000 dem += 1

if dem >= len(S)

if arg.size == pow(mean.shape[0],2) - mean.shape[0]:

if loss_cross_min > loss_cross_max: higg_loss = True

print("No matching pairs, pairing failed!" break

#Increase the error threshold to merge fuzzy rules loss_cross_min *=10 ddmin = dmin/2

#Increase standard distance ddmin *=2

arg = np.argwhere(distant < ddmin) while arg.size == 0: ddmin *=2

arg = np.argwhere(distant < ddmin) S = np.array([abs(c[arg[i][0]] - c[arg[i][1]]) for i in range (arg.

shape [0])])

dem = 0

if high_loss: break

self.alpha = alpha self.mean = mean self.sig_inv = sig_inv if X_val is None:

self.sig_inv = math.log(beta, alpha)*sig_inv else:

self.find_sig_inv(X,Y, X_val, Y_val, alpha)

self.const = constant(X,Y, self.mean, self.sig_inv) losses = loss(X,Y, self.mean, self.sig_inv, self.const) print("Numer of rule: ", mean.shape[0],", loss:", losses)

def find_sig_inv(self, X, Y, X_val, Y_val, alpha): X val = (X val - self.Xmin)/(self.Xmax - self.Xmin)

for beta in np.arange(0.1, 0.8, 0.02):

sig_inv_curr = math.log(beta, alpha)*self.sig_inv c = constant(X,Y, self.mean, sig_inv_curr) loss_train = loss(X, Y, self.mean, sig_inv_curr, c) loss_val = loss(X_val, Y_val, self.mean, sig_inv_curr, c) print("beta = ", beta) print("loss_train ", loss_train) print("loss_val", loss_val) if loss_train > 0.8*loss_val: break

print("beta = ", beta) self.sig_inv = sig_inv_curr self.const = c

def logit(self, X0):

#Define the output of the model corresponds to the input X0 if X0.ndim == 1:

X0 = np.expand_dims(X0, axis=0) X = (X0 -self.Xmin)/(self.Xmax - self.Xmin) k = 1

while np.max(Gauss_maha(X, self.mean, self.sig_inv/k)) < 0.045: k*=1.2

output = forward(X, self.mean, self.sig_inv/k, self.const) return output

def test(self, X0, Y):

#check model errors with input X = (X0 -self.Xmin)/(self.Xmax losses = loss(X, Y, self.mean, return losses

def plotMF(self):

if self.mean.shape[1] != 2:

print("The draw function only works with two-dimensional input space" else:

from mpl_toolkits.mplot3d import Axes3D

# Axes3D import has side effects, it enables using projection='3d' in ad d_subplot

- output pairs (X,Y)

- self.Xmin)

self.sig_inv, self.const)

import matplotlib.pyplot as plt from matplotlib import cm import random

fig = plt.figure() d1 = d2 = 100

X, Y = np.meshgrid(np.linspace(self.Xmin[0], self.Xmax[0], d1), np.linsp ace(self.Xmin[1], self.Xmax[1], d2))

Z = Gauss_maha(np.array([X.T,Y.T]).T, self.mean, self.sig_inv) Z = self.logit(np.array([X.T,Y.T]).T) ax = fig.add_subplot(111, projection='3d')

ax.plot_surface(X, Y, Z.reshape(d1,d2), cmap = cm.jet, zorder = 2)

ax.set_xlabel('X Label')

ax.set_ylabel('Y Label')

ax.set_zlabel('Z Label')

plt.show()

def plotMF_2d(self, alpha): if self.mean.shape[1] != 2:

print("The draw function only works with two-dimensional input space" else:

import matplotlib.pyplot as plt from matplotlib import cm import random

fig = plt.figure() d1 = d2 = 100

X, Y = np.linspace(self.Xmin[0], self.Xmax[0], d1), np.linspace(self.Xmi n[1], self.Xmax[1], d2)

colors = cm.rainbow(np.linspace(0, 1, self.mean.shape[0])) for x_ in X: for y_ in Y:

x0 = (x_ - self.Xmin[0])/(self.Xmax[0] - self.Xmin[0])

y0 = (y_ - self.Xmin[1])/(self.Xmax[1] - self.Xmin[1])

for i in range(self.mean.shape[0]):

if alpha < Gauss_maha(np.array([x0, y0]),self.mean, self.sig_inv)[

0][i] :

plt.scatter(x_, y_ , color = colors [i]) plt.xlim([self.Xmin[0], self.Xmax[0]])

plt.ylim([self.Xmin[1], self.Xmax[1]]) plt. show ()

Приложение 2. Акт о внедрении результатов диссертационной работы

I

Перевод с вьетнамского языка на русский язык

ООО "Инвестиции и строительство Ань Зыонг'

СОЦИАЛИТИЧЕСКАЯ РЕСПУБЛИКА ВЬЕТНАМ Независимость - Свобода - Счастье

Нам Динь, «16» февраля 2022 г.

АКТ

о внедрения результатов диссертации аспиранта Буй Чыонг Ан

Основываясь на результатов диссертации на тему «Разработка интеллектуальных систем моделирования слабоформализуемых процессов на основе нейро-нечетких моделей», аспиранта Буй Чыонг Ан, Московский физико-технический институт (Национальный исследовательский университет).

В диссертации аспиранта Буй Чыонг Ан для создания системы управления подразделениями ООО "Инвестиции и строительство Ань Зыонг" разработал алгоритм объединения для многомерных нечетких функций принадлежности. На основе этого алгоритма синтезирована нечеткая система управления производством с минимальным количеством нечетких правил.

ООО "Инвестиции и строительство Ань Зыонг" подтвердило, что вышеуказанные результаты исследований были применены нами для разработки систем принятия решений в экономическом отделе и принесли положительные результаты.

Заместитель директора Подписано М.П. Нгуен Куок Хай

»

Перевод с вьетнамского языка на русский язык

Акционерное Общество "Развития СОЦИАЛИТИЧЕСКАЯ РЕСПУБЛИКА ВЬЕТНАМ Энергии АТН" Независимость - Свобода - Счастье

НамДинь, «15» февраля 2022 г.

АКТ

о внедрения результатов диссертации аспиранта Буй Чыонг Ан

Основываясь на результатах диссертации на тему «Разработка интеллектуальных систем моделирования слабоформализуемых процессов на основе нейро-нечетких моделей», аспиранта Буй Чыонг Ан, Московский , физико-технический институт (Национальный исследовательский университет).

В диссертации аспиранта Буй Чыонг Ан для создания системы управления подразделениями Акционерного Общества "Развития Энергии АТН" разработал алгоритм объединения для многомерных нечетких функций принадлежности. На основе этого алгоритма синтезирована нечеткая система управления производством с минимальным количеством нечетких правил.

Акционерное общество «Развития Энергии АТН» подтвердило, что вышеуказанные результаты исследований были применены нами для разработки систем принятия решений в экономическом отделе и принесли положительные результаты.

Директор Подписано МЛ. Динь Куок Ай

Приложение 3. Свидетельство о государственной регистрации программы

для ЭВМ

Обратите внимание, представленные выше научные тексты размещены для ознакомления и получены посредством распознавания оригинальных текстов диссертаций (OCR). В связи с чем, в них могут содержаться ошибки, связанные с несовершенством алгоритмов распознавания. В PDF файлах диссертаций и авторефератов, которые мы доставляем, подобных ошибок нет.