Автоматизация настройки алгоритмов параметрической оптимизации проектных решений для серийных задач высокой вычислительной сложности тема диссертации и автореферата по ВАК РФ 05.13.12, кандидат наук Агасиев Талех Азер оглы

  • Агасиев Талех Азер оглы
  • кандидат науккандидат наук
  • 2021, ФГБОУ ВО «Московский государственный технический университет имени Н.Э. Баумана (национальный исследовательский университет)»
  • Специальность ВАК РФ05.13.12
  • Количество страниц 163
Агасиев Талех Азер оглы. Автоматизация настройки алгоритмов параметрической оптимизации проектных решений для серийных задач высокой вычислительной сложности: дис. кандидат наук: 05.13.12 - Системы автоматизации проектирования (по отраслям). ФГБОУ ВО «Московский государственный технический университет имени Н.Э. Баумана (национальный исследовательский университет)». 2021. 163 с.

Оглавление диссертации кандидат наук Агасиев Талех Азер оглы

Основные сокращения и обозначения

Введение

Глава 1. Введение в предметную область

1.1 Серийные задачи параметрической оптимизации проектных решений

1.1.1 Серийные задачи оптимизации проектных решений

1.1.2 Характерные признаки серийных задач оптимизации проектных решений и алгоритмы их оценки

1.1.3 Алгоритмы решения серийных задач оптимизации проектных решений

1.2 Настройка параметров алгоритмов оптимизации

1.2.1 Методы настройки и управления параметрами алгоритма

1.2.2 Классификация методов настройки параметров

1.2.3 Гибридные методы настройки и настройка с учетом характерных признаков серийной задачи

1.3 Выводы по первой главе

Глава 2. Настройка алгоритмов решения серийных задач оптимизации

2.1 Методика настройки параметров

2.1.1 Формальное определение серийной задачи оптимизации

2.1.2 Постановка задачи настройки алгоритма оптимизации

2.1.3 Методика настройки алгоритмов параметрической оптимизации

2.2 Оценка характерных признаков серийной задачи оптимизации

2.2.1 Критерий качества ландшафтного анализа целевой функции

2.2.2 Метод ландшафтного анализа на базе карты вариативности целевой функции

2.2.3 Алгоритмы ландшафтного анализа на базе карты вариативности целевой функции

Стр.

2.3 Прогнозирование эффективных значений параметров алгоритма оптимизации

2.3.1 Постановка задачи прогнозирования эффективности алгоритма оптимизации

2.3.2 Метод прогнозирования эффективности алгоритма оптимизации

2.4 Выводы по второй главе

Глава 3. Программный комплекс для автоматизации настройки параметров и вычислительный эксперимент

3.1 Программное обеспечение для решения серийных задач оптимизации .. 105 3.1.1 Программный комплекс для настройки алгоритма оптимизации

3.1.2 Основные модули настройки параметров алгоритма оптимизации

3.2 Исследование эффективности методики настройки при решении тестовых задач оптимизации

3.2.1 Процедура оценки эффективности настройки алгоритма

3.2.2 Организация вычислительного эксперимента

3.2.3 Результаты вычислительного эксперимента

3.3 Исследование эффективности методики настройки при решении прикладной задачи оптимизации

3.3.1 Постановка задачи оптимизации параметров малогабаритных бензиновых двигателей внутреннего сгорания

3.3.2 Организация вычислительного эксперимента

3.3.3 Результаты вычислительного эксперимента

3.4 Выводы по третьей главе

Общие выводы и заключение

Список литературы

Основные сокращения и обозначения

М-алгоритм алгоритм мета-оптимизации

М-задача задача мета-оптимизации

М-модель аппроксимирующая модель индикатора

эффективности алгоритма (мета-модель) ХП характерные признаки

ЛА ландшафтный анализ

ц — задача глобальной параметрической оптимизации f(X) - целевая функция задачи оптимизации ц

X = (х±,х2,... Х1Х\) - 1X1 -мерный вектор варьируемых параметров задачи ц Бх с М|Х| - множество допустимых значений варьируемых параметров задачи ц

ас - алгоритм ландшафтного анализа (ЛА)

£ Бх > / = /(X) - ландшафтная выборка задачи ц С(ц) = (с±(ц),... ,С\с\(ц)) - вектор ХП задачи ц Бс с Щ}с1 - множество допустимых значений ХП задачи Q = {цАС(цд £ Бс} - серийная задача оптимизации

а(В) — алгоритм глобальной непрерывной оптимизации В = (Ь±,..., Ь\щ) - вектор свободных параметров алгоритма а(В) - стратегия Бв с М|в| - множество допустимых значений свободных параметров В В = [В^ £ Бв,] = 1,2,.}- набор стратегий алгоритма а(В)

I £ Б] - вычислительный бюджет задачи ц - максимально допустимое число вычислений функции f(X)

Б] с Щ - множество допустимых вычислительных бюджетов П = [ I к £ Б],к = 1,2,...}- набор вычислительных бюджетов

е(а(В), С(ц), I) = е(В, С, I) - индикатор эффективности алгоритма а(В) со стратегией В при решении задачи ц с вектором ХП С(ц) при заданном бюджете I

Рекомендованный список диссертаций по специальности «Системы автоматизации проектирования (по отраслям)», 05.13.12 шифр ВАК

Введение диссертации (часть автореферата) на тему «Автоматизация настройки алгоритмов параметрической оптимизации проектных решений для серийных задач высокой вычислительной сложности»

Введение

Актуальность работы. Диссертация посвящена разработке методики настройки алгоритмов параметрической оптимизации для решения серийных задач оптимизации проектных решений в САПР. Немаловажной задачей для обеспечения конкурентоспособности выпускаемых изделий, помимо прочего, является задача параметрического синтеза объекта проектирования, часто решаемая как задача параметрической оптимизации. При проектировании сложных инженерных изделий возникают серийные задачи оптимизации, под которыми понимаем набор задач оптимизации со схожими свойствами, решаемых многократно для схожих изделий и/или различных вариантов одного изделия. Прикладные серийные задачи параметрической оптимизации отличаются высокой размерностью пространства поиска и высокой вычислительной сложностью оптимизируемых функций. Для автоматизации решения экземпляров серийных задач оптимизации разрабатывают специализированное математическое и программное обеспечение, часто на базе промышленных САПР, включающее современные алгоритмы параметрической оптимизации.

Специализированные системы инженерного анализа и оптимизации включают современные и сложные алгоритмы структурной и параметрической оптимизации. Большинство алгоритмов оптимизации имеют набор свободных параметров, значения которых во многом определяют эффективность решения задачи оптимизации. Разработчики математического и программного обеспечения для оптимизации в большинстве случаев предоставляют рекомендуемые значения свободных параметров для реализованных алгоритмов. В качестве рекомендуемых часто выбирают значения свободных параметров, которые обеспечивают в среднем приемлемую эффективность при решении широкого спектра оптимизационных задач. В действительности, данные значения свободных параметров не универсальны и, вообще говоря, должны подбираться с учетом особенностей решаемых оптимизационных задач, что требует глубокого понимания пользователем алгоритма и задачи оптимизации. При решении

экземпляров серийной задачи оптимизации высокой вычислительной сложности даже небольшое повышение эффективности алгоритма позволит в долгосрочной перспективе сэкономить значительный объем вычислительных ресурсов. Поиск наилучших значений свободных параметров алгоритма оптимизации называем настройкой параметров алгоритма. Повышение производительности алгоритма за счет настройки его свободных параметров при решении прикладных серийных задач оптимизации может уменьшить вычислительные затраты на принятие проектных решений или повысить качество найденных решений при тех же вычислительных затратах. Автоматизация процесса настройки параметров позволит пользователям САПР реализовать потенциал современных алгоритмов оптимизации при решении прикладных задач без помощи экспертов в области оптимизации и вычислительной математики. Методы автоматизированной настройки параметров алгоритмов оптимизации широко востребованы, в частности, на этапе внедрения специализированного математического и программного обеспечения в процесс автоматизированного проектирования сложных инженерных изделий.

Значительную часть исследовательских работ в области настройки свободных параметров алгоритмов оптимизации проектных решений выполняют участники международной группы COSEAL (COnfiguration and SElection of ALgorithms). Отдельно следует отметить вклад в данную область исследований следующих авторов: Дивеев А.И. (ФИЦ ИУ РАН), Карпенко А.П. (МГТУ им. Н.Э. Баумана), Семёнкин Е.С. (СибГУ им. М.Ф. Решетнёва), Скобцов Ю.А. (СПбГУАП).

Различают классические методы настройки параметров и современные методы на основе прогнозирования эффективности алгоритма, использующие методы ландшафтного анализа и машинного обучения.

Классические методы настройки предполагают прямой поиск значений свободных параметров, обеспечивающих минимальное или максимальное значение некоторого индикатора эффективности алгоритма при решении данной задачи или набора задач оптимизации. Найденные значения свободных

параметров фиксируют в процессе эксплуатации алгоритма оптимизации. Классические методы настройки исследуют научные группы под руководством A.E. Eiben (Vrije Universiteit Amsterdam), Mike Preuss (Universiteit Leiden), Zbigniew Michalewicz (University of Adelaide), Magnus Pedersen (Hvass Laboratories), Volker Nannen (University of Koblenz-Landau).

Альтернативный подход к настройке предполагает построение аппроксимирующей модели индикатора эффективности алгоритма в зависимости от выбранных значений его параметров и особенностей решаемой задачи оптимизации. Такую модель строят на основе результатов решения задач малой вычислительной сложности и используют для прогнозирования наилучших значений параметров алгоритма в процессе его нормальной эксплуатации. Данный подход является наиболее перспективным с точки зрения практического применения для решения прикладных серийных задач оптимизации. Методы на основе прогнозирования эффективности алгоритма оптимизации развивают ведущие специалисты Pascal Kerschke и Heike Trautmann (University of Münster, Германия), Marius Lindauer (Leibniz University of Hannover, Германия), Frank Hutter (Albert-Ludwigs University of Freiburg, Германия), Holger H. Hoos (Leiden Institute of Advanced Computer Science, Нидерланды).

Классические методы настройки параметров не учитывают особенности решаемой серийной задачи, а найденные значения свободных параметров фиксируют в процессе эксплуатации алгоритма оптимизации, что ограничивает прирост его эффективности. Методы на основе прогнозирования эффективности алгоритма учитывают особенности серийной задачи, но не приспособлены для поиска на множестве допустимых значений свободных параметров. При выборе значений свободных параметров алгоритма оптимизации для решения задач высокой вычислительной сложности одним из ключевых факторов, принимаемых во внимание, является мощность используемой вычислительной системы и, как следствие, объем вычислительных ресурсов, доступных для решения задачи. Известные методы настройки не учитывают объем доступных вычислительных ресурсов, что также ограничивает их применение при решении практически

значимых серийных задач оптимизации. В связи с этим актуальной является разработка методики, методов, алгоритмов и программного обеспечения для автоматизации настройки алгоритмов параметрической оптимизации проектных решений на основе прогнозирования эффективности алгоритма на множестве допустимых значений его параметров с использованием оценок особенностей решаемой серийной задачи и доступного объема вычислительных ресурсов.

Целью работы является разработка математического и программного обеспечения для автоматизации настройки алгоритмов решения серийных задач параметрической оптимизации проектных решений в САПР.

Задачи исследования:

1) Провести аналитический обзор известных методов настройки алгоритмов параметрической оптимизации проектных решений.

2) Формализовать определение серийной задачи параметрической оптимизации проектных решений в САПР. Формализовать постановку задачи настройки параметров на основе прогнозирования эффективности алгоритма.

3) Разработать методику настройки алгоритмов решения серийных задач параметрической оптимизации проектных решений, включающую: а) метод оценки особенностей задачи, б) метод построения аппроксимирующей модели индикатора эффективности алгоритма.

4) Выполнить программную реализацию разработанного математического обеспечения для автоматизации настройки алгоритмов решения серийных задач параметрической оптимизации проектных решений.

5) Исследовать эффективность разработанного математического и программного обеспечения при решении тестовых задач оптимизации и прикладной серийной задачи параметрической оптимизации проектных решений.

Методы исследования. Методика настройки алгоритмов разработана с применением методов теории глобальной параметрической оптимизации, планирования эксперимента и аппроксимации многомерных данных.

Научная новизна диссертационной работы состоит в следующем.

1) Разработаны элементы научных основ создания подсистем САПР для автоматизации настройки алгоритмов решения серийных задач параметрической оптимизации проектных решений: формализация понятия серийной задачи, постановки актуальных задач настройки параметров алгоритмов оптимизации (п.2 паспорта специальности).

2) Предложена и разработана методика настройки алгоритмов параметрической оптимизации проектных решений в процессе их эксплуатации, использующая оригинальные методы оценки особенностей серийной задачи и аппроксимации индикатора эффективности алгоритма (п.1 паспорта специальности).

3) Предложен метод ландшафтного анализа для оценки особенностей серийной задачи оптимизации, позволяющий вычислить ключевые, с точки зрения эффективности алгоритма, характеристики ландшафта целевой функции экземпляра серийной задачи (п.3 паспорта специальности).

4) Предложен метод аппроксимации индикатора эффективности алгоритма с учетом особенностей серийной задачи параметрической оптимизации проектных решений и доступного объёма вычислительных ресурсов (п.3 паспорта специальности).

Теоретическая и практическая значимость результатов работы заключается в следующем.

1) Формализовано понятие серийной задачи оптимизации проектных решений, предложены формальные постановки задач настройки алгоритмов оптимизации для решения серийных задач параметрической оптимизации с использованием методов ландшафтного анализа и методов прогнозирования эффективности алгоритма.

2) Разработана методика ОБРЫ для настройки алгоритмов оптимизации в процессе их нормальной эксплуатации при решении экземпляров серийных задач параметрической оптимизации проектных решений, включающая оригинальные методы ландшафтного анализа и аппроксимации индикатора эффективности алгоритма оптимизации.

3) Предложенные методика, методы и алгоритмы реализованы в программном комплексе DEPM Tuner, который включает необходимые программные инструменты для ландшафтного анализа и прогнозирования эффективности алгоритма в процессе его эксплуатации для решения серийных задач оптимизации проектных решений.

4) По результатам масштабного вычислительного эксперимента с тестовыми задачами оптимизации показана эффективность разработанного математического и программного обеспечения для настройки алгоритма и возможность его использования при решении прикладных серийных задач оптимизации проектных решений.

5) С помощью разработанного математического и программного обеспечения спрогнозированы более эффективные по сравнению с умолчательными значения свободных параметров алгоритма для решения экземпляра серийной задачи по оптимизации параметров малогабаритных бензиновых двигателей внутреннего сгорания, что позволило повысить найденный в результате решения задачи крутящий момент двигателя на 3%.

Достоверность и обоснованность полученных в диссертации результатов обеспечивается строгостью и корректностью используемого математического аппарата и подтверждается результатами масштабных вычислительных экспериментов с использованием тестовых задач оптимизации и экземпляра прикладной серийной задачи «Оптимизация параметров малогабаритных бензиновых двигателей внутреннего сгорания».

Апробация работы. Основные результаты и положения диссертационной работы были представлены и обсуждались на: XII Международном симпозиуме «Intelligent Systems» (Москва, 2016); XVIII Международной научной конференции «Системы компьютерной математики и их приложения» (Смоленск, 2017); IX Международной научной конференции «Наукоемкие технологии и интеллектуальные системы» (Москва, 2017); XIX Международной научной конференции «Системы компьютерной математики и их приложения» (Смоленск, 2018); XIII Международном симпозиуме «Intelligent Systems» (Санкт-Петербург,

2018); XII Всероссийской конференции «Будущее машиностроения России» (Москва, 2019); Международной научной конференции «Cyber-Physical Systems Design And Modelling» (Санкт-Петербург, 2019); XXI Международной научной конференции «Системы компьютерной математики и их приложения» (Смоленск, 2020).

Публикации. Основные результаты диссертационного исследования опубликованы в 14 научных работах, из них 4 работы - в изданиях, индексируемых в Scopus и Web of Science; 4 работы - в рецензируемых научных журналах, рекомендованных ВАК РФ. Получено 1 свидетельство о регистрации программы для ЭВМ. Общий объем - 8,82 п.л.

Личный вклад автора. Исследования, результаты которых изложены в диссертации, проведены лично соискателем в процессе научной деятельности. Соискателем самостоятельно разработан программный комплекс, реализующий предложенные методику, методы и алгоритмы, и выполнены вычислительные эксперименты.

Структура работы. Диссертация состоит из введения, трех глав, заключения и списка используемой литературы. Общий объем диссертации составляет 163 страницы машинописного текста. Диссертация содержит 52 рисунка и 2 таблицы. Список используемой литературы включает 154 источника.

В Главе 1 предложено понятие серийной задачи параметрической оптимизации проектных решений, рассмотрены особенности серийных задач и известные методы анализа характерных признаков экземпляров этих задач. Выполнен обзор методов настройки алгоритмов параметрической оптимизации проектных решений, обозначены недостатки классических методов на основе прямого поиска наилучших стратегий алгоритма и недостатки современных методов на основе прогнозирования наилучших стратегий алгоритма. Сформулированы требования к методу настройки для алгоритмов решения серийных задач параметрической оптимизации.

В Главе 2 приведено формальное определение серийной задачи оптимизации, предложены постановки актуальных задач, связанных с настройкой алгоритмов параметрической оптимизации проектных решений. Предложена методика настройки DEPM, включающая оригинальные методы ландшафтного анализа для оценки характерных признаков серийной задачи и прогнозирования эффективности алгоритма оптимизации с различными стратегиями с учетом вычислительного бюджета экземпляра серийной задачи.

В Главе 3 представлено описание программного комплекса DEPM Tuner, разработанного в ходе выполнения диссертационной работы и реализующего представленное математическое обеспечение для настройки алгоритмов параметрической оптимизации проектных решений. Предложена архитектура базового программного комплекса для экземпляров серийной задачи оптимизации проектных решений и схема его интеграции с программным комплексом DEPM Tuner. Разработана процедура оценки эффективности настройки алгоритма оптимизации по предложенной методике. Выполнен масштабный вычислительный эксперимент с использованием тестовых задач оптимизации, по результатам которого проанализирована эффективность предложенных методов ландшафтного анализа и точность прогнозирования наилучших стратегий алгоритма. Представлены результаты апробации разработанного математического и программного обеспечения для настройки алгоритма оптимизации при решении прикладной серийной задачи оптимизации.

Глава 1. Введение в предметную область

1.1 Серийные задачи параметрической оптимизации проектных решений

1.1.1 Серийные задачи оптимизации проектных решений

В связи со стремительным развитием технологий производства и ростом сложности выпускаемой продукции, усложняются и методы синтеза проектных решений. Успех производителя высокотехнологичных изделий во многом зависит от используемых средств автоматизации проектирования и инженерного анализа. Эффективность применения методов структурно-параметрического синтеза проектных решений в САПР значительным образом влияют на качество продукта, стоимость и сроки его разработки.

Процесс структурно-параметрического синтеза сложных инженерных изделий включает решение большого числа задач параметрической оптимизации проектных решений. При проектировании различных объектов, схожих по конструкции и техническим характеристикам возникают и многократно решаются "схожие" сложные задачи оптимизации. Например, при проектировании новых моделей или модификаций пассажирских самолетов одного семейства многократно решают задачи оптимизации геометрии аэродинамических поверхностей и различных элементов фюзеляжа с целью повышения запаса прочности, грузоподъёмности и уменьшения расхода топлива в процессе эксплуатации [1, 2]. С точки зрения формальной постановки, решаемые задачи оптимизации имеют схожий, в том числе по физической природе, набор варьируемых параметров и критериев оптимальности, но могут отличаться топологией целевой функции для различных модификаций проектируемых изделий. Совокупность задач высокой вычислительной сложности, решаемых многократно, имеющих "близкую" топологию области поиска и особенности целевой функции, называем серийной задачей оптимизации. Задачи оптимизации,

которые относим к данной серийной задаче оптимизации, называем экземплярами этой серийной задачи.

Несерийные задачи оптимизации так же, как и серийные, часто возникают в процессе проектирования сложных инженерных изделий. Для решения несерийной задачи в большинстве случаев достаточно стандартных средств промышленных САПР, большинство из которых включают реализации широко известных алгоритмов оптимизации. Виду частого решения различных экземпляров серийной задачи целесообразным становится применение узкоспециализированных алгоритмов оптимизации, разработанных с учетом особенностей этой серийной задачи и с привлечением экспертной оценки [3]. В общем случае процедура выбора и настройки специализированного алгоритма требует очень больших вычислительных затрат и экономически оправдана только при последующем решении большого числа практически значимых задач оптимизации этим алгоритмом. Затраты на разработку и внедрение специализированного математического и программного обеспечения компенсируются приростом производительности при проектировании сложных изделий за счет автоматизации решения часто возникающих схожих задач оптимизации высокой вычислительной сложности.

ПО для автоматизации решения серийной задачи оптимизации представляет собой набор программных модулей, реализующих взаимодействие с различными CAD и CAE системами, специальными программами для анализа и моделирования проектируемого изделия, обработки и хранения информации в базе данных, визуализации процесса решения задачи, представление результатов, формирование отчетов и т.д. Внедрение ПО для решения серийной задачи в процесс проектирования, в общем случае, сопровождается как обучением персонала предприятия эффективному применению реализованного математического обеспечения, так и активной технической поддержкой в процессе эксплуатации специализированного ПО. На этапе первичного ознакомления также актуально применение вспомогательных подсистем для

автоматизации настройки алгоритмов оптимизации общего назначения и специализированных алгоритмов оптимизации.

Мета-задача оптимизации

В связи с высокой вычислительной сложностью оптимизационных задач в САПР, в том числе и серийных задач, основным требованием к алгоритмам оптимизации является малое число обращений к математической модели оптимизируемого объекта. Значительные временные затраты на расчет характеристик моделируемого объекта не позволяют производить большое число вычислений целевой функции. Обзор подходов к решению задач с высокой вычислительной сложности выполнен в работе [4]. При решении практически значимых задач часто применяют различные методы анализа данных, понижения размерности пространства поиска и суррогатного моделирования на этапе предварительного анализа постановки задачи с целью наиболее эффективного использования доступных вычислительных ресурсов.

При решении серийных задач оптимизации в САПР особое значение, с точки зрения эффективного распределения вычислительных ресурсов, имеют выбор и правильная настройка алгоритма оптимизации с учетом особенностей решаемых задач. Для оценки эффективности алгоритмов оптимизации и их настройки при решении различных задач проводят исследования, в рамках которых рассматриваемыми алгоритмами решают заранее подготовленный набор тестовых оптимизационных задач с низкой вычислительной сложностью целевой функции, а также отыскивают наилучшие значения свободных параметров этих алгоритмов. Результаты таких исследований затем обобщают и используют в дальнейшем при подготовке к решению практически значимых задач оптимизации [5, 6]. Эффективное применение алгоритмов оптимизации при решении серийных задач является одним из ключевых факторов снижения вычислительных затрат на параметрический синтез и обеспечения более высокого качества проектируемых технических изделий.

Авторы работы [7] сделали теоретически обоснованные выводы о возможности обобщения результатов подобных исследований эффективности

алгоритмов оптимизации. В соответствии с No Free Lunch теоремой [7] усредненная эффективность двух любых алгоритмов оптимизации при решении широкого спектра задач практически идентична. То есть, если алгоритм аг эффективнее алгоритма а2 при решении некоторого класса задач, то, вероятнее всего, найдется другой класс задач, при решении которых а2 эффективнее алгоритма аг. Класс задачи в случае глобальной безусловной параметрической оптимизации определяется особенностями ландшафта целевой функции и топологии области допустимых значений варьируемых параметров, размерностью пространства поиска и т.п.

Средняя эффективность алгоритма зависит от количества "принимаемой во внимание" в процессе решения информации об оптимизационной задаче, в том числе, от количества допущений об особенностях задач, для решения которых алгоритм разработан. Это объясняет тот факт, что большое число алгоритмов оптимизации, не учитывающих особенности решаемых задач, на практике, в целом, работают приемлемо. Такие алгоритмы, в среднем, эффективнее специализированных при решении широкого спектра оптимизационных задач. Таким образом, невозможно разработать универсальный алгоритм оптимизации, а для корректного сравнения эффективности двух алгоритмов следует обеспечить соответствие выбранных для исследования тестовых задач тем допущениям, которые были заложены в эти алгоритмы при разработке [8]. Например, для зашумленных задач больших размерностей наиболее применимы стохастические алгоритмы оптимизации, а для поиска экстремумов функций высокой вычислительной сложности при относительно малых размерностях пространства поиска, в основном, используют алгоритмы оптимизации на основе суррогатного моделирования.

После выбора алгоритма оптимизации на основании экспертной оценки или результатов проведенных ранее исследований принципиально важно правильно настроить алгоритм оптимизации, т.е. выбрать наилучшие для данной серийной задачи оптимизации значения свободных параметров алгоритма. Вектор значений свободных параметров алгоритма оптимизации называют его стратегией.

В общем случае для правильной настройки алгоритма оптимизации требуется значительный опыт в решении экземпляров данной серийной задачи оптимизации и опыт работы с данным алгоритмом оптимизации для понимания заложенных в него идей, назначения свободных параметров и деталей реализации. В противном случае для решения серийной задачи используют значения свободных параметров алгоритма по умолчанию или значения, полученные в результате исследований пространства параметров алгоритма для оценки эффективности решения различных оптимизационных задач

Задачу настройки алгоритма в общем случае ставят как задачу мета-оптимизации (М-задачу), которая заключается в отыскании наилучшей стратегии алгоритма, которой соответствует минимальное или максимальное значение одного или нескольких индикаторов эффективности алгоритма при решении данной задачи или класса задач оптимизации. Настраивающий алгоритм оптимизации называем мета-алгоритмом (М-алгоритмом).

Выделяем два типа свободных параметров в составе стратегии: числовые и категориальные. Числовые параметры могут быть как непрерывными, так и дискретными. Категориальные параметры - параметры с ограниченным числом допустимых уникальных значений, например, топология соседства в методе роя частиц [9]. В зависимости от используемого М-алгоритма искомой является фиксированная стратегия или динамическая стратегия, которая изменяется в процессе решения задачи.

1.1.2 Характерные признаки серийных задач оптимизации проектных решений и алгоритмы их оценки

При решении задачи настройки алгоритма оптимизации необходимо принимать во внимание как постановку задачи оптимизации, так и особенности, связанные с прикладной областью, спецификой оптимизируемых характеристик, процессом расчета целевой функции и т.д. Результатом оценки особенностей оптимизационных задач с целью подбора наилучшей стратегии алгоритма является вектор характерных признаков (ХП) задачи. В общем случае

Похожие диссертационные работы по специальности «Системы автоматизации проектирования (по отраслям)», 05.13.12 шифр ВАК

Список литературы диссертационного исследования кандидат наук Агасиев Талех Азер оглы, 2021 год

Список литературы

1. Gazaix A. et al. Towards the industrialization of new mdo methodologies and tools for aircraft design // 18th AIAA/ISSMO Multidisciplinary Analysis and Optimization Conference. 2017. pp. 1-25.

2. Grihon S. Structure sizing optimization capabilities at AIRBUS // World Congress of Structural and Multidisciplinary Optimisation. Springer, Cham. 2017. pp. 719-737.

3. Priem R. et al. An efficient application of Bayesian optimization to an industrial MDO framework for aircraft design // AIAA AVIATION 2020 FORUM, 2020. pp. 1-16.

4. Shan S., Wang G. G. Survey of modeling and optimization strategies to solve high-dimensional design problems with computationally-expensive black-box functions // Structural and Multidisciplinary Optimization. 2010. Vol. 41. No. 2. pp. 219-241.

5. Sipper M. et al. Investigating the parameter space of evolutionary algorithms // BioData mining. 2018. Vol. 11. No. 1. pp. 1-14.

6. El-Khatib S., Rodzin S., Skobtsov Y. Investigation of optimal heuristical parameters for mixed ACO-k-means segmentation algorithm for MRI images // Information Technologies in Science, Management, Social Sphere and Medicine, Atlantis Press. 2016. pp. 216-221.

7. Adam S. P. et al. No free lunch theorem: A review // Approximation and optimization. 2019. Vol. 145. pp. 57-82.

8. Ho Y.C., Pepyne D.L. Simple explanation of the no-free-lunch theorem and its implications // Journal of optimization theory and applications. 2002. Vol. 115. No. 3. pp. 549-570.

9. Родзин С. И., Скобцов Ю. А., Эль-Хатиб С. А. Биоэвристики: теория, алгоритмы и приложения. Издательский дом «Среда», 2019. С. 224.

10. Bongartz I. et al. CUTE: Constrained and unconstrained testing environment // ACM Transactions on Mathematical Software (TOMS). 1995. Vol. 21. No. 1.

pp. 123-160.

11. Mersmann O. et al. Exploratory landscape analysis // Proceedings of the 13th annual conference on Genetic and evolutionary computation. ACM. 2011. pp. 829-836.

12. Cavazzuti M. Design of experiments // In: Optimization methods. Berlin: Springer, 2013. pp. 13-42.

13. Li G., Aute V., Azarm S. An accumulative error based adaptive design of experiments for offline metamodeling // Structural and Multidisciplinary Optimization. 2010. Vol. 40. No. 1. pp. 137-155.

14. Kerschke P. et al. Cell mapping techniques for exploratory landscape analysis. EVOLVE-A Bridge between Probability, Set Oriented Numerics, and Evolutionary Computation V // Springer International Publishing. 2014. pp. 115-131.

15. Hernandez C. et al. Barrier tree for continuous landscapes by means of generalized cell mapping // Bioinformatics. 2014. Vol. 26. pp. 299-313.

16. Muñoz M. et al. Exploratory Landscape Analysis of Continuous Space Optimization Problems Using Information Content // in IEEE Transactions on Evolutionary Computation (19:1). 2015. pp. 74-87.

17. Preuss M. Improved Topological Niching for Real-Valued Global Optimization // Springer. 2012. pp. 386-395.

18. Kerschke P. et al. Detecting funnel structures by means of exploratory landscape analysis // Proceedings of the 2015 Annual Conference on Genetic and Evolutionary Computation. 2015. pp. 265-272.

19. Munoz M.A., Smith-Miles K. Effects of function translation and dimensionality reduction on landscape analysis // IEEE Congress on Evolutionary Computation (CEC). 2015. pp. 1336-1342.

20. Lunacek M., Whitley D. The Dispersion Metric and the CMA Evolution Strategy // Proceedings of the 8th Annual Conference on Genetic and Evolutionary Computation. 2014. pp. 477-484.

21. Rios L. M., Sahinidis N. V. Derivative-free optimization: a review of algorithms and comparison of software implementations // Journal of Global Optimization. 2013. Vol. 56. No. 3. pp. 1247-1293.

22. Shubert B.O. A sequential method seeking the global maximum of a function // SIAM Journal on Numerical Analysis. 1972. Vol. 9. No. 3. pp. 379-388.

23. Pinter J.D. Global Optimization in Action: Continuous and Lipschitz Optimization. Algorithms, Implementations and Applications. Nonconvex Optimization and its Applications. Springer Science & Business Media, 2013. P. 480.

24. Jones D.R., Perttunen C.D., Stuckman B.E. Lipschitzian optimization without the Lipschitz constant. // Journal of optimization Theory and Applications. 1993. Vol. 79. No. 1. pp. 157-181.

25. Finkel D.E., Kelley C.T. Additive scaling and the DIRECT algorithm // Journal of Global Optimization. 2006. Vol. 36. No. 4. pp. 597-608.

26. Huyer W., Neumaier A. Global optimization by multilevel coordinate search // Journal of Global Optimization. 1999. Vol. 14. No. 4. pp. 331-355.

27. Kroese D. P. et al. Why the Monte Carlo method is so important today // Wiley Interdisciplinary Reviews: Computational Statistics. 2014. Vol. 6. No. 6. pp. 386-392.

28. Савин А. Н., Тимофеева Н. Е. Применение алгоритма оптимизации методом имитации отжига на системах параллельных и распределённых вычислений // Известия Саратовского университета. Новая серия. Серия Математика. Механика. Информатика. 2012. Т. 12. № 1. С. 110-116.

29. Malhotra R., Singh N., Singh Y. Genetic algorithms: Concepts, design for optimization of process controllers // Computer and information science. 2011. Vol. 4. No. 2. pp. 39-54.

30. Дивеев А. И., Константинов С. В. Эволюционные алгоритмы для решения задачи оптимального управления // Вестник Российского университета дружбы народов. Серия: Инженерные исследования. 2017. Т. 18. № 2. С. 254-265.

31. Santiago A. et al. A novel multi-objective evolutionary algorithm with fuzzy logic based adaptive selection of operators: FAME // Information Sciences. 2019. Vol. 471. pp. 233-251.

32. Дивеев А. И., Софронова Е. А., Шмалько Е. Ю. Эволюционные численные методы решения задачи синтеза системы управления группой роботов //

Информационные и математические технологии в науке и управлении. 2016. № 3. С. 11-23.

33. Карпенко А. П. Гибридные популяционные алгоритмы параметрической оптимизации проектных решений // Информационные технологии. 2013. № 12. С. 6-15.

34. Akay B., Karaboga D. A modified artificial bee colony algorithm for real-parameter optimization // Information sciences. 2012. Vol. 192. pp. 120-142.

35. Liao T. et al. A unified ant colony optimization algorithm for continuous optimization // European Journal of Operational Research. 2014. Vol. 234. No. 3. pp. 597-609.

36. Карпенко А. П. Основные сущности популяционных алгоритмов для задачи глобальной оптимизации // Информационные и математические технологии в науке и управлении. 2016. № 2. С. 8-17.

37. Лаврищева Л. С., Новосёлов В. Н. Оптимизация формы модели гребного винта в однородном потоке // Труды Крыловского государственного научного центра. 2018. № 1. С. 75-83.

38. Barros P.A. Jr., Kirby M.R., Mavris D.N. Impact of sampling techniques selection on the creation of response surface models // SAE International. 2004. No. 113. pp. 1682-1693.

39. Majdisova Z., Skala V. Radial basis function approximations: comparison and applications // Applied Mathematical Modelling. 2017. Vol. 51. pp. 728-743.

40. Kleijnen J. P. C. Regression and Kriging metamodels with their experimental designs in simulation: a review // European Journal of Operational Research. 2017. Vol. 256. No. 1. pp. 1-16.

41. Колодяжный М., Зайцев А. Гетероскедастичные гауссовские процессы и их применение для байесовской оптимизации // ИТиС. 2018. pp. 42-51.

42. Khalajzadeh V., Heidarinejad G., Srebric J. Parameters optimization of a vertical ground heat exchanger based on response surface methodology // Energy and Buildings. 2011. Vol. 43. No. 6. pp. 1288-1294.

43. Jones D.R. A taxonomy of global optimization methods based on response surfaces // Journal of global optimization. 2001. Vol. 21. No. 4. pp. 345-383.

44. Gao K. et al. ARBF: adaptive radial basis function interpolation algorithm for irregularly scattered point sets // Soft Computing. 2020. Vol. 24. No. 23. pp. 1-11.

45. Regis R. G. Constrained optimization by radial basis function interpolation for high-dimensional expensive black-box problems with infeasible initial points // Engineering Optimization. 2014. Vol. 46. No. 2. pp. 218-243.

46. Han Z. H. et al. Surrogate-based optimization // In: Real-world applications of genetic algorithms. BoD - Books on Demand, 2012. pp. 343-378.

47. Wilson J., Hutter F., Deisenroth M. Maximizing acquisition functions for Bayesian optimization // Advances in Neural Information Processing Systems. 2018. pp. 1-12.

48. Saini B. S., Lopez-Ibanez M., Miettinen K. Automatic surrogate modelling technique selection based on features of optimization problems // Proceedings of the Genetic and Evolutionary Computation Conference Companion. 2019. pp. 1765-1772.

49. Chaudhuri A., Haftka R. T. Efficient global optimization with adaptive target setting // AIAA journal. 2014. Vol. 52. No. 7. pp. 1573-1578.

50. Cox D.D., John S. SDO: A statistical method for global optimization // IEEE International Conference on Systems, Man, and Cybernetics. 1997. pp. 315-329.

51. Müller J., Day M. Surrogate optimization of computationally expensive black-box problems with hidden constraints // INFORMS Journal on Computing. 2019. Vol. 31. No. 4. pp. 689-702.

52. Ingber L. et al. Adaptive simulated annealing // Stochastic global optimization and its applications with fuzzy adaptive simulated annealing. Springer, Berlin, Heidelberg. 2012. pp. 33-62.

53. Powell M. J. D. The BOBYQA algorithm for bound constrained optimization without derivatives // Cambridge NA Report NA2009/06. 2009. pp. 26-46.

54. Auger A., Hansen N. Tutorial CMA-ES: evolution strategies and covariance matrix adaptation // Proceedings of the 14th annual conference companion on Genetic and evolutionary computation. 2012. pp. 827-848.

55. Dalbey K. et al. DAKOTA, a multilevel parallel object-oriented framework for design optimization, parameter estimation, uncertainty quantification, and

sensitivity analysis, Sandia National Laboratories, Albuquerque, NM (United States), Tech. Rep. SAND2006-6337. 2020.

56. Audet C., Dang C. K., Orban D. Algorithmic parameter optimization of the DFO method with the OPAL framework // Software Automatic Tuning. 2011. pp. 255-274.

57. Csendes T. et al. The GLOBAL optimization method revisited // Optimization Letters. 2008. Vol. 2. No. 4. pp. 445-454.

58. Hasan H. M. M., Jochheim H., Schultz A. Optimization of selected parameters of the forest growth model Biome-BGC (version ZALF) using HOPSPACK // 20th International Conference of Computer and Information Technology. 2017. pp. 1-7.

59. Zhang K. et al. Well pattern optimization using NEWUOA algorithm // Journal of Petroleum Science and Engineering. 2015. Vol. 134. pp. 257-272.

60. Le Digabel S. Algorithm 909: NOMAD: Nonlinear optimization with the MADS algorithm // ACM Transactions on Mathematical Software. 2011. Vol. 37. No. 4. pp. 1-15.

61. Vaz A. I. F., Vicente L. N. PSwarm: a hybrid solver for linearly constrained global derivative-free optimization // Optimization Methods & Software. 2009. Vol. 24. No. 4. pp. 669-685.

62. Custodio A. L., Vicente L. N. SID-PSM: A pattern search method guided by simplex derivatives for use in derivative-free optimization // Departamento de Matemática, Universidade de Coimbra, Coimbra. 2008. pp. 1-22.

63. Holmstrom K., Edvall M. M. The TOMLAB optimization environment // Modeling languages in mathematical optimization. Springer, Boston, MA. 2004. pp. 369-376.

64. Mosavi A., Rituraj R., Varkonyi-Koczy A. R. Review on the Usage of the Multiobjective Optimization Package of modeFrontier in the Energy Sector // International Conference on Global Research and Education. Springer, Cham, 2017. pp. 217-224.

65. Lee Y. K. et al. Mixed-flow pump impeller-diffuser optimization method by using CFX and HEEDS // Transactions of the Korean Society of Mechanical Engineers. 2015. Vol. 39. No. 10. pp. 831-842.

66. Бурнаев Е. и др. Многодисциплинарная оптимизация, анализ данных и

автоматизация инженерных расчётов с помощью программного обеспечения комплекса pSeven // CAD. 2014. № 4. С. 1-6.

67. Калюлин С. Л., Шмаков А. Ф., Модорский В. Я. Оптимизация конструкции крупногабаритного вентилятора из стеклопластика в прикладном пакете IOSO PM // Научно-технический вестник Поволжья. 2014. No. 5. pp. 209-212.

68. Hansen N. et al. Real-parameter black-box optimization benchmarking 2010: Experimental setup // RR-7215, INRIA. 2010. pp. 1-23.

69. Beiranvand V., Hare W., Lucet Y. Best practices for comparing optimization algorithms // Optimization and Engineering. 2017. Vol. 18. No. 4. pp. 815-848.

70. Dolan E.D., Moré J.J. Benchmarking optimization software with performance profiles // Mathematical programming. 2002. Vol. 91. No. 2. pp. 201-213.

71. Gould N., Scott J. A Note on Performance Profiles for Benchmarking Software // ACM Transactions on Mathematical Software (TOMS). 2016. Vol. 43. No. 2. pp. 1-5.

72. Moré J. J., Wild S. M. Benchmarking derivative-free optimization algorithms // SIAM Journal on Optimization. 2009. Vol. 20. No. 1. pp. 172-191.

73. Bringmann K., Friedrich T. Approximation quality of the hypervolume indicator // Artificial Intelligence. 2013. Vol. 195. pp. 265-290.

74. Zitzler E. et al. Performance assessment of multiobjective optimizers: an analysis and review // IEEE Transactions on evolutionary computation. 2003. Vol. 7. No. 2. pp. 117-132.

75. Benchmarks for Optimization Software. Decison Tree for Optimization Software [Электронный ресурс] URL: http://plato.asu.edu/bench.html (дата обращения: 01.01.2020).

76. Momin J., Yang X. S. A literature survey of benchmark functions for global optimization problems // Journal of Mathematical Modelling and Numerical Optimisation. 2013. Vol. 4. No. 2. pp. 150-194.

77. Gould N.I.M., Orban D., Toint P.L. CUTEst: a constrained and unconstrained testing environment with safe threads for mathematical optimization // Computational Optimization and Applications. 2015. Vol. 60. No. 3. pp. 545-557.

78. The General Algebraic Modeling System (GAMS) World [Электронный ресурс]

URL: http://www.gamsworld.org (дата обращения: 01.01.2020).

79. The Nonlinear Programming GLOBAL Library [Электронный ресурс] URL: http://www.gamsworld.org/global/globallib.htm (дата обращения: 01.01.2020).

80. Princeton Library of Nonlinear Programming (NLP) Models. GAMS World. [Электронный ресурс] URL: http://www.gamsworld.org/performance/ princetonlib/princetonlib.htm (дата обращения: 01.01.2020).

81. A Library of Mixed-Integer and Continuous Nonlinear Programming Instances (MINLP Library) [Электронный ресурс] URL: http://www.minlplib.org (дата обращения: 01.01.2020).

82. Global Optimization Test Problems [Электронный ресурс] URL: http:// www.mat.univie.ac.at/~neum/glopt/test.html (дата обращения: 01.01.2020).

83. Dolan E.D., Moré J.J., Munson T.S. Benchmarking optimization software with COPS 3.0 // Argonne National Lab, IL (US). ANL/MCS-TM-273. 2004. pp. 1-55.

84. Floudas C.A. et al. Handbook of test problems in local and global optimization // In: Nonconvex Optimization and Its Applications (Vol. 33). Springer Science & Business Media, 2013. P. 442.

85. Karafotias G., Hoogendoorn M., Eiben A. E. Parameter control in evolutionary algorithms: Trends and challenges // IEEE Transactions on Evolutionary Computation. 2014. Vol. 19. No. 2. pp. 167-187.

86. Pedersen M.E.H., Chipperfield A.J. Parameter tuning versus adaptation: proof of principle study on differential evolution // Hvass Laboratories, HL0803. 2008. pp. 1-51.

87. Белоглазов Д. А., Сулейман К. И., Финаев В. И. Разработка адаптивного эволюционного алгоритма оптимизации на основе аппарата нечеткой логики // Известия Южного федерального университета. Технические науки. 2013. No. 4. pp. 169-175.

88. Грошев С. В., Карпенко А. П. Мета-оптимизация популяционных алгоритмов многоцелевой оптимизации // Вестник евразийской науки. 2016. Vol. 8. No. 6. pp. 1-11.

89. Smit S. K. Parameter tuning and scientific testing in evolutionary algorithms. Vrije Universiteit, Amsterdam, 2012. P. 216.

90. Mercer R.E., Sampson J.R. Adaptive search using a reproductive meta-plan // Kybernetes. 1978. Vol. 7. No. 3. pp. 215-228.

91. Grefenstette J. J. Optimization of control parameters for genetic algorithms // Systems, Man and Cybernetics, IEEE Transactions. 1986. Vol. 16. No. 1. pp. 122-128.

92. Hutter F., Hoos H.H., Stutzle T. Automatic algorithm configuration based on local search // Association for the Advancement of Artificial. 2007. Vol. 7. pp. 1152-1157.

93. Yuan B., Gallagher M. Combining Meta-EAs and racing for difficult EA parameter tuning tasks // Parameter Setting in Evolutionary Algorithms. 2007. Vol. 54. pp. 121-142.

94. Hutter F., Hoos H.H., Leyton-Brown K. Sequential model-based optimization for general algorithm configuration // International conference on learning and intelligent optimization. 2011. Vol. 6683. pp. 507-523.

95. Biau G. Analysis of a random forests model // The Journal of Machine Learning Research. 2012. Vol. 13. No. 1. pp. 1063-1095.

96. Pedersen M.E.H., Chipperfield A.J. Simplifying particle swarm optimization // Applied Soft Computing. 2010. Vol. 10. No. 2. pp. 618-628.

97. Myers R., Hancock E.R. Empirical modelling of genetic algorithms // Evolutionary computation. 2001. Vol. 9. No. 4. pp. 461-493.

98. Karna S. K. et al. An overview on Taguchi method // International Journal of Engineering and Mathematical Sciences. 2012. Vol. 1. No. 1. pp. 1-7.

99. Adenso-Diaz B., Laguna M. Fine-tuning of algorithms using fractional experimental designs and local search // Operations Research. 2006. Vol. 54. No. 1. pp. 99-114.

100. Pedersen M.E.H. Tuning & simplifying heuristical optimization. PhD thesis, University of Southampton, Engineering Science Unit, 2010. P. 204.

101. Goldsman D., Nelson B.L., Schmeiser B. Methods for selecting the best system // Proceedings of the 23rd conference on Winter simulation. IEEE Computer Society. 1991. pp. 177-186.

102. Branke J., Chick S.E., Schmidt C. New developments in ranking and selection: an

empirical comparison of the three main approaches // Simulation Conference. Proceedings of the Winter. IEEE. 2005. pp. 708-717.

103. Schmeiser B. Simulation experiments. Vol 2. // In: Handbooks in operations research and management science. 1990. pp. 295-330.

104. Rinott Y. On two-stage selection procedures and related probability-inequalities // Communications in Statistics-Theory and methods. 1978. Vol. 7. No. 8. pp. 799-811.

105. Saville D. J. Multiple comparison procedures: the practical solution // The American Statistician. 1990. Vol. 44. No. 2. pp. 174-180.

106. Kim S.H., Nelson B.L. A fully sequential procedure for indifference-zone selection in simulation // ACM Transactions on Modeling and Computer Simulation (TOMACS). 2001. Vol. 11. No. 3. pp. 251-273.

107. Maron O., Moore A.W. The racing algorithm: Model selection for lazy learners // Lazy learning. 1997. Vol. 11. No. 1. pp. 193-225.

108. Birattari M., Kacprzyk J. Tuning metaheuristics: a machine learning perspective // Springer. 2009. Vol. 197. pp. 85-114.

109. Balaprakash P., Birattari M., Stützle T. Improvement strategies for the F-Race algorithm: Sampling design and iterative refinement // International workshop on hybrid metaheuristics. 2007. pp. 108-122.

110. Fitzgerald T. et al. ReACT: Real-Time Algorithm Configuration through Tournaments // Seventh Annual Symposium on Combinatorial Search. 2014. pp. 62-70.

111. Parnianifard A. et al. Comparative study of metamodeling and sampling design for expensive and semi-expensive simulation models under uncertainty // Simulation: Transactions of the Society for Modeling and Simulation. 2020. Vol. 96. No. 1. pp. 89-110.

112. Kazemi M. et al. Metamodel-based optimization for problems with expensive objective and constraint functions // Journal of Mechanical Design. 2011. Vol. 133. No. 1. pp. 1-7.

113. Czarn A. et al. Statistical exploratory analysis of genetic algorithms // IEEE Transactions on evolutionary computation. 2004. Vol. 8. No. 4. pp. 405-421.

114. Ramos I.C.O. et al. Logistic regression for parameter tuning on an evolutionary algorithm // IEEE Congress on Evolutionary Computation. 2005. Vol. 2. pp. 1061-1068.

115. François O., Lavergne C. Design of evolutionary algorithms-A statistical perspective // IEEE Transactions on Evolutionary Computation. 2001. Vol. 5. No. 2. pp. 129-148.

116. Coy S.P. et al. Using experimental design to find effective parameter settings for heuristics // Journal of Heuristics. 2001. Vol. 7. No. 1. pp. 77-97.

117. Bartz-Beielstein T., Parsopoulos K. E., Vrahatis M. N. Analysis of particle swarm optimization using computational statistics // International conference on numerical analysis and applied mathematics ICNAAM. 2004. pp. 34-37.

118. Banzhaf W., Lasarczyk C. Genetic programming of an algorithmic chemistry // In: Genetic Programming Theory and Practice II. Springer US, 2005. pp. 175-190.

119. Hutter F. et al. Sequential model-based parameter optimization: An experimental investigation of automated and interactive approaches // Experimental Methods for the Analysis of Optimization Algorithms. 2010. pp. 363-414.

120. Smit S.K., Eiben A.E., Szlavik Z. An MOEA-based Method to Tune EA Parameters on Multiple Objective Functions // IJCCI (ICEC). 2010. pp. 261-268.

121. Dréo J. Using performance fronts for parameter setting of stochastic metaheuristics // Proceedings of the 11th Annual Conference Companion on Genetic and Evolutionary Computation Conference: Late Breaking Papers. ACM. 2009. pp. 2197-2200.

122. Yusoff Y., Ngadiman M. S., Zain A. M. Overview of NSGA-II for optimizing machining process parameters // Procedia Engineering. 2011. Vol. 15. pp. 3978-3983.

123.Nannen V., Eiben A.E. A method for parameter calibration and relevance estimation in evolutionary algorithms // Proceedings of the 8th annual conference on Genetic and evolutionary computation. 2006. pp. 183-190.

124. Smit S.K., Eiben A.E. Comparing parameter tuning methods for evolutionary algorithms // Evolutionary Computation, CEC'09. IEEE Congress on. 2009. pp. 399-406.

125. Smit S.K., Eiben A.E. Multi-problem parameter tuning using bonesa // Artificial Evolution. 2011. pp. 222-233.

126. Branke J., Schmidt C., Schmec H. Efficient fitness estimation in noisy environments // Proceedings of the 3rd Annual Conference on Genetic and Evolutionary Computation. 2001. pp. 243-250.

127. Smit S. K., Eiben A.E. Parameter tuning of evolutionary algorithms: Generalist vs. specialist // Applications of evolutionary computation. Springer Berlin Heidelberg. 2010. pp. 542-551.

128. Zitzler E. et al. SPEA2: Improving the strength Pareto evolutionary algorithm // Eurogen. 2001. Vol. 103. pp. 95-100.

129. Ugolotti R. Meta-optimization of Bio-inspired Techniques for Object Recognition. PhD thesis, Università di Parma. Dipartimento di Ingegneria dell'Informazione, 2015. P. 158.

130. Ugolotti R. et al. Algorithm configuration using GPU-based metaheuristics // Proceedings of the 15th annual conference companion on Genetic and evolutionary computation. ACM. 2013. pp. 221-222.

131. Ugolotti R. et al. GPU-Based Automatic Configuration of Differential Evolution: A Case Study // Progress in Artificial Intelligence. Springer Berlin Heidelberg. 2013. pp. 114-125.

132. Hutter F. et al. ParamILS: an automatic algorithm configuration framework // Journal of Artificial Intelligence Research. 2009. Vol. 36. No. 1. pp. 267-306.

133. Deb K., Srinivasan A. Innovization: Innovating design principles through optimization // Proceedings of the 8th annual conference on Genetic and evolutionary computation. ACM. 2006. pp. 1629-1636.

134. Ugolotti R., Cagnoni S. Analysis of evolutionary algorithms using multi-objective parameter tuning // Proceedings of the 2014 conference on Genetic and evolutionary computation. ACM. 2014. pp. 1343-1350.

135. Montero E. et al. Are state-of-the-art fine-tuning algorithms able to detect a dummy parameter? // International Conference on Parallel Problem Solving from Nature. Springer, Berlin, Heidelberg. 2012. pp. 306-315.

136. Branke J., Elomari J. A. Meta-optimization for parameter tuning with a flexible

computing budget // Proceedings of the 14th annual conference on Genetic and evolutionary computation. ACM. 2012. pp. 1245-1252.

137. Belkhir N. et al. Feature based algorithm configuration: A case study with differential evolution // International Conference on Parallel Problem Solving from Nature. Springer, Cham, 2016. pp. 156-166.

138. Iooss B., Lemaître P. A review on global sensitivity analysis methods // Uncertainty management in simulation-optimization of complex systems. Springer, Boston, MA, 2015. Vol. 59. pp. 101-122.

139. Belkhir N. et al. Per instance algorithm configuration of CMA-ES with limited budget // Proceedings of the Genetic and Evolutionary Computation Conference, 2017. pp. 681-688.

140. Kerschke P., Trautmann H. Automated algorithm selection on continuous black-box problems by combining exploratory landscape analysis and machine learning // Evolutionary computation. 2019. Vol. 27. No. 1. pp. 99-127.

141. Kerschke P. et al. Automated algorithm selection: Survey and perspectives // Evolutionary computation. 2019. Vol. 27. No. 1. pp. 3-45.

142. Смирнов С. А. и др. Автоматическая облачная система подстройки параметров алгоритмов // Компьютерные исследования и моделирование. 2015. Т. 7. № 3. С. 587-592.

143. Hutter F., Ramage S. Manual for SMAC version v2. 10.02-master // Vancouver: Department of Computer Science University of British Columbia. 2015. pp. 1-73.

144. Blot A. et al. MO-ParamILS: A Multi-objective Automatic Algorithm Configuration Framework // International Conference on Learning and Intelligent Optimization. - Springer International Publishing. 2016. pp. 32-47.

145. Ansotegui C., Sellmann M., Tierney K. A gender-based genetic algorithm for the automatic configuration of algorithms // Springer Berlin Heidelberg. 2009. pp. 142-157.

146. Lopez-Ibanez M. et al. The irace package: Iterated racing for automatic algorithm configuration // Operations Research Perspectives. 2016. Vol. 3. pp. 43-58.

147. Lopez-Ibanez M., Stutzle T. The automatic design of multiobjective ant colony optimization algorithms // IEEE Transactions on Evolutionary Computation. 2012.

Vol. 16. No. 6. pp. 861-875.

148. Dubois-Lacoste J., Lopez-Ibanez M., Stutzle T. Automatic configuration of state-of-the-art multi-objective optimizers using the TP+ PLS framework // Proceedings of the 13th annual conference on Genetic and evolutionary computation. ACM. 2011. pp. 2019-2026.

149. Lacour R., Klamroth K., Fonseca C. A box decomposition algorithm to compute the hypervolume indicator // Computers & Operations Research. 2017. Vol. 79. pp. 347-360.

150. Guerra L. et al. A comparison of clustering quality indices using outliers and noise // Intelligent Data Analysis. 2012. Vol. 16. No. 4. pp. 703-715.

151. Bischl B. et al. Algorithm selection based on exploratory landscape analysis and cost-sensitive learning // Proceedings of the 14th annual conference on Genetic and evolutionary computation. 2012. pp. 313-320.

152. Lawder J. K., King P. J. H. Using space-filling curves for multi-dimensional indexing // British National Conference on Databases. Springer, Berlin, 2000. Vol. 1832. pp. 20-35.

153. Karpenko A. P., Svianadze Z. O. Meta-optimization based on self-organizing map and genetic algorithm // Optical Memory and Neural Networks. 2011. Vol. 20. No. 4. pp. 279-283.

154. Belkina A. et al. Automated optimized parameters for T-distributed stochastic neighbor embedding improve visualization and analysis of large datasets // Nature communications. 2019. Vol. 10. No. 1. pp. 1-12.

Копия свидетельства о государственной регистрации программы для ЭВМ

Копии актов о внедрении

УТВЕРЖДАЮ Первый проректор - проректор по учебной работе

об использовании результатов кандидатской диссертационной работ

Агасиева Талеха Азер оглы

СПРАВКА

«

Комиссия в составе:

председатель - заведующий кафедрой РК6 «Системы автоматизированного проектирования», д.ф.-м.н., профессор Карпенко А.П.;

члены комиссии - к.т.н., доцент кафедры РК6 Жук Д.М.; к.т.н., доцент кафедры РК6 Маничев В.Б.; к.т.н., доцент кафедры РКб Трудоношин В.А.

составили настоящую справку о том, что результаты диссертационной работы Агасиева Т.А. «Автоматизация настройки алгоритмов параметрической оптимизации проектных решений для серийных задач высокой вычислительной сложности», представленной на соискание, ученой степени кандидата технических наук, используются в процессе преподавания следующих дисциплин кафедры «Системы автоматизированного проектирования» МГТУ им. Н.Э. Баумана по направлению подготовки 09.04.01 «Информатика и вычислительная техника» магистра (магистерская программа «Системы автоматизированного проектирования »):

- «Современные методы оптимизации»;

- «Современные численные методы и пакеты прикладных программ».

Председатель комиссии, заведующий кафедрой РК6,

д.ф.-м.н., профессор

Л

А.Г1. Карпенко

к.т.н., доцент кафедры САПР к.т.н., доцент кафедры САПР к.т.н., доцент кафедры САПР

Члены комиссии:

АКТ

о внедрении результатов кандидатской диссертационной работы Агасиева Талеха Азер оглы

Настоящим актом подтверждается, что результаты диссертационной работы Агасиева Т.А. на тему «Автоматизация настройки алгоритмов параметрической оптимизации проектных решений для серийных задач высокой вычислительной сложности», представленной на соискание ученой степени кандидата технических наук, используются в компании В А ТАВ УАИСЕ для решения задач, связанных с ландшафтным анализом многомерных функций и автоматизированной настройкой алгоритмов аппроксимации многомерных функций в программной платформе рБеуеп.

Метод ландшафтного анализа по карте вариативности целевой функции также использован в коммерческом проекте компании по параметрической оптимизации геометрии элементов фюзеляжа на этапе концептуального проектирования семейства пассажирских самолетов для дополнительной валидации ландшафта аппроксимирующих моделей целевой функции в условиях отсутствия валидационной выборки.

Генеральный директор ООО «Датадванс»

Обратите внимание, представленные выше научные тексты размещены для ознакомления и получены посредством распознавания оригинальных текстов диссертаций (OCR). В связи с чем, в них могут содержаться ошибки, связанные с несовершенством алгоритмов распознавания. В PDF файлах диссертаций и авторефератов, которые мы доставляем, подобных ошибок нет.