Планирование исполнения наборов композитных приложений во временных окнах распределенных облачных сред тема диссертации и автореферата по ВАК РФ 05.13.11, кандидат наук Боченина, Клавдия Олеговна

  • Боченина, Клавдия Олеговна
  • кандидат науккандидат наук
  • 2014, Санкт-Петербург
  • Специальность ВАК РФ05.13.11
  • Количество страниц 135
Боченина, Клавдия Олеговна. Планирование исполнения наборов композитных приложений во временных окнах распределенных облачных сред: дис. кандидат наук: 05.13.11 - Математическое и программное обеспечение вычислительных машин, комплексов и компьютерных сетей. Санкт-Петербург. 2014. 135 с.

Оглавление диссертации кандидат наук Боченина, Клавдия Олеговна

Содержание

Введение

Глава 1. Обзор задач и методов статического планирования композитных приложений во временных окнах вычислительных ресурсов гетерогенных сред

1.1. Обзор вычислительных инфраструктур исполнения композитных приложений

1.2. Обзор задач статического планирования композитных приложений в гетерогенных средах

1.3. Алгоритмы статического планирования композитных приложений в гетерогенных средах

1.3.1. Алгоритмы статического планирования композитных приложений для сред сообществ (best-effort based scheduling)

1.3.2. Алгоритмы статического планирования композитных приложений для сервисных сред (QoS based scheduling)

1.4. Задачи статического планирования наборов композитных приложений в гетерогенных средах с временными окнами

1.4.1. Штатный режим функционирования систем экстренных вычислений

1.4.2. Пакетное выполнение композитных приложений в образовательном процессе

Глава 2. Методы статического планирования наборов композитных приложений во временных окнах вычислительных ресурсов гетерогенных сред

2.1. Постановка задачи статического планирования наборов композитных приложений в гетерогенных вычислительных средах с временными окнами

2.1.1. Математическая модель гетерогенной распределенной вычислительной среды с временными окнами

2.1.2. Постановка задачи статического планирования наборов композитных приложений в гетерогенной вычислительной среде с временными окнами

2.2. Формализация критерия предпочтения и метрик оценки статических планов для наборов композитных приложений с заданными сроками завершения

2.2.1. Интегральный критерий предпочтения для сравнения статических планов наборов композитных приложений с учетом требований к срокам завершения

2.2.2. Дополнительные метрики оценки качества планов

2.3. Методы статического планирования исполнения наборов композитных приложений с учетом требований к крайним срокам завершения

2.3.1. Жадные алгоритмы формирования эталонного плана без учета крайних сроков завершения задач

2.3.2. Описание подходов к кластеризации задач наборов композитных приложений. Критерий корректности кластеризации

2.3.3. Планирование наборов композитных приложений на базе кластеризационного подхода

Глава 3. Алгоритмы статического планирования наборов композитных приложений во временных окнах вычислительных ресурсов гетерогенных сред

3.1. Планирование наборов композитных приложений на базе приоритизации задач

3.1.1. Алгоритм планирования наборов композитных приложений на основе приоритизации задач

3.1.2. Аналитическое исследование вычислительной сложности алгоритма

3.2. Стадийный подход к планированию наборов композитных приложений на базе приоритизации КП

3.2.1. Алгоритм стадийного планирования на основе приоритизации исполнения композитных приложений

3.2.2. Аналитическое исследование вычислительной сложности стадийной схемы планирования наборов композитных приложений

3.3. Кластеризационный подход к планированию наборов композитных приложений во временных окнах

3.3.1. Алгоритм кластеризации композитных приложений с учетом крайних сроков завершения задач

3.3.2. Алгоритм покластерного планирования наборов композитных приложений

3.3.3. Аналитическое исследование вычислительной сложности алгоритма

3.4. Программная реализация алгоритмов статического планирования наборов композитных приложений

3

Глава 4. Экспериментальное исследование эффективности алгоритмов статического планирования наборов композитных приложений во временных окнах вычислительных ресурсов гетерогенных сред

4.1. Экспериментальное исследование эффективности разработанных алгоритмов планирования для синтетических наборов композитных приложений

4.2. Сравнительное исследование эффективности разработанных алгоритмов для типовых наборов композитных приложений Montage, Cybershake и Genome

4.3. Применение разработанных алгоритмов планирования при решении задачи калибровки параметров ансамблевого прогноза нагонных наводнений в Санкт-Петербурге

4.4. Экспериментальное исследование эффективности алгоритмов статического планирования наборов композитных приложений на базе платформы исполнения композитных приложений CLAVIRE

4.4.1. Интеграция сервиса планирования наборов композитных приложений в платформу исполнения композитных приложений CLAVIRE

4.4.2. Экспериментальное исследование эффективности разработанных алгоритмов для планирования наборов композитных приложений Montage во временных окнах распределенной вычислительной среды на базе платформы CLAVIRE

Заключение

Список использованных источников

Рекомендованный список диссертаций по специальности «Математическое и программное обеспечение вычислительных машин, комплексов и компьютерных сетей», 05.13.11 шифр ВАК

Введение диссертации (часть автореферата) на тему «Планирование исполнения наборов композитных приложений во временных окнах распределенных облачных сред»

Введение

Развитие облачных технологий на основе модели АааБ (АррПсайоп-аз-а-Бетсе) предполагает поддержку унифицированного доступа не только к вычислительным ресурсам, платформам и отдельному программному обеспечению (ПО), но и к композитным приложениям (КП). Под КП понимается динамическое объединение вычислительных сервисов в распределенной среде, предназначенных для решения общей прикладной задачи. При этом инфраструктура, на которой функционируют сервисы в составе КП, может включать в себя выделенные кластеры, Грид-сети и облачные ресурсы публичных провайдеров, характеризуемые принципиально разными режимами использования, не согласуемыми между собой. Потому при разделении вычислительных ресурсов такой инфраструктуры в режиме немонопольного доступа перед провайдером Ааа8-услуг возникает необходимость планирования исполнения наборов КП, принадлежащих разным пользователям, во временных окнах. Целью такого планирования является эффективная утилизация доступного ресурсного пула с учетом ограничений на время решения пользовательских задач, а также возможностей провайдеров отдельных ресурсов предоставлять их только на ограниченное время. Несмотря на то, что в общем виде данная проблема не имеет детерминированного решения, существует широкий пласт прикладных задач, для которых можно априори определить характеристики времени выполнения отдельных сервисов в составе КП и параметры вычислительной среды. Для них задача планирования может быть решена на основе статических расписаний, формируемых заранее при известных режимах появления временных окон. Однако за счет связности КП, в составе которого отдельные сервисы могут использоваться и параллельно, и последовательно, а также неоднородности вычислительных ресурсов прямое решение данной задачи является крайне ресурсоемким, и непригодным для применения в современных средах распределенных вычислений. Как следствие, это требует развития альтернативных проблемно-ориентированных методов планирования исполнения КП во временных окнах распределенных облачных сред, что и определяет актуальность проблемы.

Целью данной работы являются разработка и исследование вычислительно-эффективных методов и алгоритмов статического планирования наборов КП, принадлежащих разным пользователям, в условиях немонопольного доступа к вычислительным ресурсам неоднородных распределенных сред, с учетом периодических ограничений их доступности (временные окна).

Задачами данной работы являются:

- обоснование требований к алгоритмам статического планирования наборов КП для систем с временными окнами на основе анализа соответствующей предметной области;

- разработка математической модели неоднородной распределенной вычислительной среды с временными окнами;

- формализация интегрального критерия предпочтения и метрик оценки статических планов для наборов КП с учетом требований к срокам их завершения;

- разработка методов статического планирования наборов композитных приложений для неоднородных систем с временными окнами при наличии ограничений по срокам завершения КП с применением различных техник кластеризации (группировки) задач и установления очередности доступа задач к вычислительным ресурсам;

- разработка алгоритмов статического планирования наборов КП для распределенных систем с временными окнами, реализующих перечисленные выше методы, а также их программная реализация, в том числе, на базе облачной платформы CLAVIRE1.

- оценка эффективности разработанных алгоритмов на основе вычислительных экспериментов: а) для синтетических наборов КП с различными характеристиками графов задач; б) для типовых наборов научных КП Cybershake, Montage и Genome; в) для задачи калибровки параметров ансамблевого прогноза нагонных наводнений в Санкт-Петербурге.

Научная новизна работы заключается в создании новых методов и алгоритмов решения задачи статического планирования наборов КП в распределенных облачных средах с временными окнами, позволяющих эффективно утилизировать ресурсы с одновременным учетом требований пользователей КП и провайдеров ресурсов к качеству формируемых планов.

Практическую ценность работы составляют: - алгоритмы позадачного планирования MDW-T (Multiple Deadline-Constrained Workflows -Task-based), планирования с использованием стадийной схемы приоретизации КП MDW-W(Workflow-based), кластеризационного планирования MDW-C (Clusterization-based), позволяющие формировать статические планы запуска задач набора КП на пуле гетерогенных ресурсов с поддержкой временных окон;

CLAVIRE (CLoud Application VIRtual Environment) - многопрофильная инструментально-технологическая платформа создания, разработки и эксплуатации облачных сред второго поколения, разработанная в НИИ НКТ Университета ИТМО в 2010-2012 гг. в рамках проекта «Создание распределенной вычислительной среды на базе облачной архитектуры для построения и эксплуатации высокопроизводительных композитных приложений »в рамках реализации постановления Правительства РФ № 218.

- программные компоненты (ПО, реализующее описанные выше алгоритмы, и сервис планирования в составе МИТП СЬАУШЕ), обеспечивающие исполнение наборов КП в распределенной неоднородной облачной вычислительной среде.

На защиту выносятся:

- математическая модель процесса исполнения набора КП в неоднородной распределенной среде с временными окнами, включая формализацию интегрального критерия предпочтения для сравнения качества расписаний;

- метод кластеризационного планирования наборов КП во временных окнах вычислительных ресурсов неоднородных распределенных сред, и реализующие его алгоритмы позадачного (МБ\У-Т), стадийного (ЗУГО\У-\\0, кластеризационного (МО\У-С) планирования, позволяющие формировать статические планы запуска задач набора КП для случая немонопольного доступа к ресурсам.

Диссертация состоит из введения, четырех глав, заключения и списка литературы (134 источника). Содержит 134 страницы текста, включая 38 рисунков и 18 таблиц. Первая глава содержит аналитический обзор задач, методов и алгоритмов статического планирования КП для различных типов современных киберинфраструктур исполнения КП, включая описание практически важных задач статического планирования наборов КП во временных окнах вычислительных ресурсов распределенных сред. Во второй главе описывается математическая модель процесса исполнения набора КП в распределенной неоднородной среде, включая интегральный критерий оценки качества планов, а также кластеризационный подход к планированию наборов КП. Третья глава содержит описание алгоритмов позадачного, стадийного и кластеризационного планирования, в том числе анализ их вычислительной сложности. Четвертая глава посвящена экспериментальному исследованию эффективности разработанных алгоритмов на основе вычислительных экспериментов.

Глава 1. Обзор задач и методов статического планирования композитных приложений во временных окнах вычислительных ресурсов гетерогенных сред

В настоящей главе: 1) рассмотрены типовые вычислительные инфраструктуры исполнения композитных приложений; 2) представлены обзор и классификация задач планирования композитных приложений в гетерогенных средах; 3) описаны известные методы и алгоритмы планирования КП для различных постановок задач; 4) приведены отличительные особенности задачи, ставшей предметом исследования и обоснована актуальность ее решения, описаны возможные сферы практического применения полученных результатов.

1.1. Обзор вычислительных инфраструктур исполнения композитных приложений

Композитные приложения традиционно применяются для порождения знаний в областях, связанных с обработкой, анализом и визуализацией больших объемов данных (задачи такого рода зачастую предполагают использование высокопроизводительных вычислений). Сообщества специалистов создают и курируют распределенные базы данных и программных пакетов для нужд электронной науки (eScience) в таких отраслях, как астрономия [7], биоинформатика [8], физика [9], сейсмология [10], экология [11] и др. Современные системы исполнения композитных приложений рассчитаны на поддержку одновременной работы большого числа пользователей, заинтересованных преимущественно в выполнении вычислительно сложных задач. Такие системы традиционно строятся на базе распределенных сред [12], позволяющих динамически разделять имеющиеся вычислительные мощности между текущими задачами. В работе [52] выделяется два вида распределенных сред исполнения композитных приложений:

- среды сообществ (community environments) - разделяемые ресурсы можно использовать бесплатно, однако в общем случае отсутствуют гарантии их выделения и соблюдения желаемых сроков завершения работ;

- сервисные среды (utility environments) — провайдер ресурсов гарантирует пользователям требуемый уровень качества обслуживания, как правило, на возмездной основе. Оба вида сред развертываются на базе следующих классов вычислительных инфраструктур.

I. Кластерная инфраструктура - зарезервированный статический пул вычислительных ресурсов, загрузка которого полностью контролируется администратором системы исполнения КП. Пример сферы применения: система поддержки экстренных вычислений (см. параграф 1.4).

II. Мультикластерная инфраструктура - вычислительная среда состоит из нескольких территориально разнесенных кластеров2, принадлежащих разным провайдерам. Отличительные особенности такой среды: а) сочетание полного доступа отдельного провайдера к собственным ресурсам с немонопольным доступом к ресурсам, предоставляемым другими провайдерами; б) гетерогенность каналов связи между кластерами. Пример сферы применения: вычислительная среда распределенного комплекса научно-образовательных учреждений.

III. Пиринговые гиперсети и Грид - реализуют уровень разделения слабосвязанных вычислительных мощностей. Характеризуются высокой аппаратной и программной гетерогенностью, динамичностью состава ресурсного пула и нагрузки на него, отсутствием гарантий по времени расчета (для сред сообществ). Пример сферы применения: организация сети из большого числа пользователей на основе добровольного предоставления ресурсов для выполнения вычислений, малокритичных к срокам завершения.

Развитие средств унификации предоставления доступа к программному обеспечению и вычислительным ресурсам на базе всех вышеперечисленных типов инфраструктур привело к появлению облачных сервисных моделей первого поколения SaaS (Software as a Service), PaaS (Platform as a Service), IaaS (Infrastructure as a Service), предполагающих предоставление пользователю доступа к виртуализированным ресурсам, как правило, на основе повременной оплаты (принцип «pay-as-you-go»). Синергетическое взаимодействие SaaS, PaaS и IaaS [2] осуществляется в рамках модели предоставления услуг второго поколения AaaS (Application as a Service), обеспечивающей комплексную поддержку исполнения КП как совокупности сервисов, связанных по управлению и/или данным. Облачные модели предоставления услуг чаще используются в сервисных средах (например, организация коммерческих публичных облачных сервисов), чем в средах сообществ. Вместе с тем существуют практические примеры организации сред обоих типов на базе «несвойственной» экономической модели - например, сдача вычислительных мощностей суперкомпьютеров в оплачиваемую аренду, монетизация Грид-сред [13] или формирование персональных облаков [14].

Анализ способов организации инфраструктур перечисленных классов позволяет выделить набор свойств, характеризующих вычислительные среды исполнения КП.

Значительная неоднородность узлов пула ресурсов. Традиционная аппаратная гетерогенность вычислительных сред (наличие процессоров различной мощности и запоминающих устройств различного объема) дополняется в случае распределенных сред про-

2 Под кластером в данном контексте понимается группа вычислительных ресурсов, объединенных высокоскоростными каналами связи и логически представляющих собой единый ресурс.

граммной, коммуникационной и ценовой гетерогенностью. Неоднородность программной составляющей критична при планировании композитных приложений, так как задачи КП характеризуются различными требованиями к составу и состоянию необходимой для их запуска программной среды. Унификация общей программной среды затруднена тем, что ресурсы могут контролироваться различными провайдерами. Коммуникационная неоднородность обусловлена территориальной распределенностью ресурсов и должна быть учтена при планировании КП, пакеты которых оперируют большими объемами данных. Ценовая неоднородность является отличительным признаком сервисных сред.

Наличие локальных политик выделения ресурсов у разных провайдеров. Для рассмотренных классов вычислительных инфраструктур необходимым условием предоставления ресурсов сообщества некоторому пользователю является включение его собственных ресурсов в общий вычислительный пул (для кластерной инфраструктуры данное положение является тривиальным). Пользователь/провайдер мультикластерной среды, как правило, сохраняет приоритетный доступ к собственным ресурсам, что отражается в настройках планировщика заданий принадлежащей ему вычислительной системы. При этом правила предоставления ресурсов другим провайдерам оговариваются на этапе конструирования единой среды и формализуются в виде политик планирования (например, правил организации и обслуживания очередей задач). Так как администрирование отдельных кластеров производится несогласованно, существует вероятность отказа любого провайдера в доступе к вычислительным мощностям (например, из-за технических работ).

В случае с Грид-системами и гиперсетями наличие локальных политик выделения ресурсов зависит от типа системы. Так, гиперсети рабочих станций, предполагающие использование машин сети во время их простоя, не требуют настройки правил доступа к ресурсам. Контроль доступа в сервисных Грид-средах осуществляется посредством сертификатов безопасности.

Возможность немонопольного доступа к вычислительным ресурсам отражает следующие особенности распределенных инфраструктур:

- наличие нескольких провайдеров определяет необходимость учета правил предоставления ресурсов (см. выше);

- на уровне многопользовательской среды может возникать конкуренция за вычислительные мощности, что требует приоритизации задач по уровню их важности и критичности ко времени завершения;

- существует возможность того, что с одним пользователем ассоциировано много КП, имеющих различные требования к срокам/стоимости их выполнения.

Таким образом, при поиске эффективного отображения КП на имеющиеся ресурсы необходимо принимать во внимание наличие свободных и занятых временных окон, информация о которых должна быть доступна процедуре планирования.

Возможность динамического изменения состава пула ресурсов. Данная особенность характерна для Грид- и пиринговых инфраструктур, в которых пользователь, одновременно являющийся и провайдером, самостоятельно принимает решение о времени и длительности доступа других пользователей к своим ресурсам. Так как такая среда является децентрализованной [15], состав пользователей, одномоментно присутствующих в сети, непостоянен (что частично компенсируется их большим числом).

Доступный отдельному провайдеру физический ресурсный пул не является динамическим в случае применения облачных моделей предоставления услуг (что не отменяет возможности постепенного наращивания пула). Однако отдельный пользователь облачной среды имеет доступ к логически неограниченному набору виртуальных ресурсов, это подразумевает возможность увеличения или уменьшения числа доступных ресурсов (например, путем автоматического изменения числа и состава арендуемых виртуальных машин). Если облако имеет конечный размер, возможны приостановка или завершение низкоприоритетных задач в целях предоставления большего объема ресурсов высокоприоритетным задачам [16].

Поддержка виртуализации. Механизмы виртуализации аппаратных ресурсов позволяют повысить гибкость управления планированием задач за счет:

- возможности предварительной подготовки типовых образов виртуальных машин, содержащих необходимое ПО для исполнения различных задач КП;

- возможности упрощенной приостановки и миграции задач между ресурсами;

- возможности логической изоляции вычислительных процессов, выполняемых на одном физическом ресурсе;

- упрощения применения биллинговых моделей и контроля использования ресурсов. Вместе с тем применение технологий виртуализации приводит к дополнительным накладным расходам на их поддержку.

Поддержка резервирования ресурсов. При использовании подхода к планированию, основанному на использовании очередей задач, невозможно гарантировать, что отдельная задача будет выполнена в течение заданного времени. Одним из свойств распределенной среды, определяющих возможность соблюдения требований QoS, является наличие инструментов резервирования вычислительных мощностей (advance reservation), т.е. закрепления некоторого периода времени для определенного вычислительного устройства за определенным пользователем/задачей. Возможности резервирования обеспечивают поддержку применения статических планов композитных приложений, в том числе принадлежащих разным

пользователям. Значения описанных характеристик для различных типов инфраструктур исполнения композитных приложений приведены в таблице Глава 1.2.

Таблица Глава 1.1. Характеристики различных типов инфраструктур исполнения ком-

позитных приложений

Атрибут Тип инфраструктуры

кластерная мультикластерная пиринговые гиперсети и Грид

Гетерогенность:

-аппаратная Да Да Да

-программная Возможно Да Да

-коммуникационная Нет Да Да

-ценовая Нет Возможно Возможно

Число провайдеров Один Несколько Не ограничено

Число пользователей Один По числу провайдеров По числу провайдеров

Наличие локальных политик - Да Зависит от типа

выделения ресурсов у раз- сети/Грид

ных провайдеров

Монопольный доступ к ре- Да Только к собст- Только к

сурсам венным собственным

Динамическое изменение Нет Нет Да

состава пула ресурсов

Виртуализация ресурсов Возможна Возможна Да

Резервирование ресурсов Не требуется Возможно Возможно

Современные системы управления научными КП (scientific workflow management systems, SWfMS) предоставляют возможности производить вычисления на базе всех перечисленных инфраструктур. Вместе с тем многие из них (например, Taverna [17]) поддерживают лишь крайне ограниченный набор возможностей параллелизации и утилизации распределенных сред [18]. Приведем описание средств подключения и использования разнотипных вычислительных ресурсов для нескольких наиболее распространенных SWfMS.

Pegasus [62]. Данная SWfMS поддерживает несколько конфигураций исполнительных сред. Наиболее распространенный способ запуска КП предполагает использование выделенного пула ресурсов Condor . Доступ к удаленным кластерам может быть выполнен по интерфейсу GRAM (Globus Resource Allocation Manager), с помощью сервиса CREAM (Computing

3 HTCondor (до 2013 г. Condor) - программный фреймворк с открытым исходным кодом для организации распределенных высокопроизводительных вычислений. Среди его возможностей - интеграция суперкомпьютеров и немонопольно используемых десктопов в единую вычислительную среду.

Resource Execution and Management) или по SSH. Возможно временное добавление дополнительных ресурсов (кластеров, других пулов Condor, облаков Amazon) с помощью механизма glidein. Реализованы плагины, обеспечивающие функционирование Pegasus в Грид-средах FutureGrid, OpenScienceGrid.

Kepler [3]. Доступ к ресурсам производится в Kepler с помощью разных типов акторов - абстракций для представления отдельных задач КП, определяющих источники данных и правила их преобразования [19]. Акторы WebService, RESTService, Soaplab, OpalClient предназначены для запуска удаленных приложений, набор акторов SRB (Storage Resource Broker) обеспечивает возможности распределенного хранения данных, акторы Globus позволяют выполнять задачи в Грид-средах [20]. Обеспечена поддержка взаимодействия с наиболее распространенными системами управления задач для кластеров (Condor, PBS, SGE и др.). Для взаимодействия Kepler с облаками Amazon в 2012 г. был разработан набор акторов ЕС2 [21].

Triana [22]. Данная SWfMS предоставляет функционал исполнения КП, состоящих из web-сервисов, в Р2Р- и Грид-средах. Triana использует набор интерфейсов для привязки к различным программным прослойкам (middleware) и сервисам: GRAM, GridFTP, GRMS(GridLab Resource Management Systems), GAP (Grid Application Prototype), WS-RF [23]. В 2013 г. было объявлено поддержке выполнения КП Triana в облачных средах [24] (с помощью механизма передачи сообщений RabbitMQ).

Большинство известных SWfMS предусматривает возможность распределенного вычисления КП на базе Грид-инфраструктуры [25]. Вместе с тем использование одноранговых децентрализованных сред для выполнения КП может быть сопряжено с рядом трудностей, обусловленных природой решаемых задач [26]:

- приложения для научных расчетов зачастую обладают смешанным (mixed) параллелизмом (т.е. распараллеливаются не только на уровне задач, но и на уровне данных) и могут требовать наличия доступа к общей оперативной памяти или использования механизмов передачи сообщений (например, MPI) для координации частей параллельно исполняемого кода;

- планирование на основе очередей без учета взаимосвязи задач (что часто встречается в Грид-средах [54]) значительно удлиняет продолжительность выполнения композитных приложений;

- класс коммуникационно интенсивных КП требует передачи больших (до нескольких терабайтов) объемов данных между взаимосвязанными задачами. Для выполнения таких КП крайне неэффективно использование большого числа относительно слабых ресурсов, соединенных низкоскоростными каналами связи.

Коммерческие облачные сервисы используются системами управления КП в двух основных целях [18]:

- как хост-платформа размещения программных приложений (например, Galaxy [27]) -реализация модели SaaS;

- как способ расширения доступного ресурсного пула (например, Pegasus) - реализация моделейIaaS, PaaS.

Хотя предоставление услуг по принципу «pay-as-you-go» предполагает соблюдение провайдерами гарантий качества обслуживания, реальная производительность арендованных виртуальных машин существенно зависит от физической конфигурации предоставляемых ресурсов и числа разделяющих их пользователей. Особенно большое влияние эти параметры оказывают на скорость передачи данных между задачами КП [28].

Разноплановая гетерогенность вычислительных сред исполнения композитных приложений приводит к необходимости создания специализированных средств и стандартов соответствующих киберинфраструктур (e-Infrastructures). В дорожной карте развития распределенных вычислительных инфраструктур для нужд eScience [29], разработанной в 2012 г. инициативными экспертами группы SIENA (Standards and interoperability for elnfrastructure implementation initiative) [30], подчеркивается важность аккумуляции усилий профессионального сообщества для создания масштабируемых, надежных, экономически эффективных технических решений для своевременного обеспечения процессов производства, потребления, трансформации и верификации научных знаний.

Основным тенденцией в развитии вычислительных сред выполнения научных КП в настоящее время является создание методов и моделей построения гибридных инфраструктур, объединяющих выделенные кластеры, Грид-сети и облачные ресурсы в единый логический пул [31, 32] на основе облачных моделей. Такой подход предполагает применение сервисов автоматического поиска необходимых конфигураций ресурсов, интеллектуального планирования и мониторинга исполнения КП, гарантирующих простоту использования SWfMS наряду с соблюдением заявленных требований качества обслуживания. Достижение данной цели обеспечивается следующими свойствами гибридной инфраструктуры: 1) сокрытие деталей реализации процедур назначения ресурсов от конечных пользователей; 2) внедрение специализированных методов и алгоритмов управления загрузкой вычислительных устройств. При этом наличие широкого спектра вариантов построения и сценариев использования гибридных сред находит отражение в многообразии порождаемых задач планирования КП.

1.2. Обзор задач статического планирования композитных приложений в гетерогенных средах

Наиболее общая классификация задач планирования КП в гетерогенных4 средах может быть получена при рассмотрении комбинаций возможных свойств компонентов, определяющих постановку таких задач. Другими словами, такую классификацию можно получить, дав ответы на вопросы: 1) Какими свойствами обладает объект планирования?; 2) Какими свойствами обладает вычислительная среда?; 3) Какова цель планирования?; 4) Каковы ограничения, накладываемые на допустимое решение?. Такой подход базируется на нотации теоретических проблем планирования а \ /51 у (а - свойства вычислительной среды, /? - свойства задач, у - вид целевой функции), предложенной в работе [33].

В таблице Глава 1.3 приведены возможные свойства и значения перечисленных компонентов, полученные путем эмпирического анализа наиболее часто встречающихся практических задач планирования композитных приложений. Если задача не обладает приведенным свойством, соответствующий компонент маркируется знаком 0 и не отображается при записи.

Похожие диссертационные работы по специальности «Математическое и программное обеспечение вычислительных машин, комплексов и компьютерных сетей», 05.13.11 шифр ВАК

Список литературы диссертационного исследования кандидат наук Боченина, Клавдия Олеговна, 2014 год

Список использованных источников

1. Goble С., Roure D. De. The Impact of Workflow Tools on Data-centric Research // Fourth Paradig. Data-intensive Sei. Discov / Ed. by T. Hey, S. Tansley, K. Tolle. Microsoft Research. 2009. P. 137-145.

2. Бухановский A.B. и др. CLAVIRE: перспективная технология облачных вычислений второго поколения //Изв. вузов. Приборостроение. 2011. Т. 54, № 10. С. 7-14.

3. Bala A. A Survey of Various Workflow Scheduling Algorithms in Cloud Environment. 2011. P. 26-30.

4. Singh L. A Survey of Workflow Scheduling Algorithms and Research Issues. International Journal of Computer Applications, 2013. Vol. 74, N 15. P. 21-28.

5. Yu J., Buyya R., Ramamohanarao K. Workflow Scheduling Algorithms for Grid Computing // Metaheuristics Sched. Distrib. Comput. Environ / Ed. by F. Xhafa, A. Abraham. Springer Berlin Heidelberg, 2008. P. 173-214.

6. Luo J., Dong F., Zhang J. Scheduling of Scientific Workflow in Non-dedicated Heterogeneous Multicluster Platform // J. Syst. Softw. Elsevier Inc. 2012. Vol. 86, N 7. P. 1806-1818.

7. Skrutskie M.F. et al. The Two Micron All Sky Survey (2MASS) // Astron. J. 2006. Vol. 131, N2. P. 1163-1183.

8. NCBI. The database of genotypes and phenotypes (dbGaP). 2009 [Electronic resource]: <http://www.ncbi.nlm.nih.gov/gap>.

9. Barish B.C. The Detection of Gravitational Waves with LIGO: General Relativity and Quantum Cosmology. 1999. P. 8.

10. Deelman E. et al. Managing Large-Scale Workflow Execution from Resource Provisioning to Provenance Tracking: The CyberShake Example // Second IEEE Int. Conf. e-Science Grid Comput. IEEE/ 2006. P. 14-14.

11. Michener W. et al. Data Integration and Workflow Solutions for Ecology // Data Integr. Life Sei. 2005. P. 321-324.

12. Shiroor A. et al. Scientific workflow management systems and workflow patterns // Int. J. Bus. Process Integr. Manag. 2010. Vol. 5, N 1. P. 63.

13. Buyya R, Venugopal S. The Gridbus Toolkit for Service Oriented Grid and Utility Computing : An Overview and Status Report Gridbus System Vision and Architecture. 2004. P. 1-11.

14. Чуров Т.Н., Насонов Д.А., Болгова Е.В. Технология построения проблемно-ориентированных сред для научных исследований в рамках модели персонального облака // Динамика сложных систем. 2013. № 3. С.73-77.

15. Prajapati Н.В., Dabhi V.K. Classification and Characterization of Core Grid Protocols for Global Grid Computing. 2010. P. 1-23.

16. Trebon N. Enabling Urgent Computing within the Existing Distributed Computing Infrastructure. The University of Chikago, 2011. August. P. 126.

17. Taverna scientific workflows management system. 2014 [Electronic resource]: <http://www.taverna.org.uk>.

18. Bux M., Leser U. Paral lei ization in Scientific Workflow Management Systems: Distributed, Parallel, and Cluster Computing. 2013. N 1. P. 24.

19. Altintas I. et al. Kepler: an extensible system for design and execution of scientific workflows // Proc. 16th Int. Conf. Sci. Stat. Database Manag. IEEE. 2004. P. 423-424.

20. Kepler User Manual (version 2.4). 2013. March. 393 p.

21. Wang J., Altintas I. Early Cloud Experiences with the Kepler Scientific Workflow System // Procedía Comput. Sci. 2012. Vol. 9. P. 1630-1634.

22. Taylor I. et al. The Triana Workflow Environment: Architecture and Applications // Work. e-Science. London: Springer, 2007. P. 320-339.

23. Taylor I. et al. Triana Applications within Grid Computing and Peer to Peer Environments. 2004. P. 199-217.

24. [Electronic resource]: <http://www.trianacode.org/news.php>.

25. Yu J., Buyya R. A Taxonomy of Workflow Management Systems for Grid Computing. 1995. P. 1-33.

26. Juve G., Deelman E. Scientific workflows and clouds // Crossroads. 2010. Vol. 16, N 3. P. 14-18.

27. Liu B. et al. Cloud-based bioinformatics workflow platform for large-scale next-generation sequencing analyses // J. Biomed. Inform. Elsevier Inc. 2014. P. 1-15.

28. Hoffa C. et al. On the Use of Cloud Computing for Scientific Workflows // IEEE Fourth Int. Conf. eScience. 2008. P. 640-645.

29. Roadmap on Distributed Computing Infrastructure for e-Science and Beyond in Europe. 2012. P. 45.

30. SIENA home page. 2014 [Electronic resource]: <http://www.sienainitiative.eu>.

31. Kim H, Rodero I., Jha S. Autonomic Management of Application Workflows on Hybrid Computing Infrastructure. 2010. P. 1-22.

32.

33.

34.

35.

36,

37

38

39

40

41

42,

43,

44.

45.

46.

47.

48.

Knyazkov V. К. et al. CLAVIRE: e-Science infrastructure for data-driven computing // J. Comput. Sci. 2012. Vol. 3, N 6. P. 504-510.

Graham R.L. et al. Optimization and approximation in deterministic sequencing and scheduling-a survey.pdf// Ann. Discret. Math. 1979. P. 287-326.

Wieczorek M. et al. Taxonomies of the Multi-criteria Grid Workflow Scheduling Problem CoreGRID Technical Report Number TR-0106 Taxonomies of the Multi-criteria Grid Workflow Scheduling Problem. 2007.

Князьков А".В. Технология разработки композитных приложений. НИУ ИТМО, 2012. С. 19.

Calheiros R.N., Buyya R., Member S. Meeting Deadlines of Scientific Workflows in Public Clouds with Tasks Replication. 2013. Vol. 20. P. 1-11.

Zhu M.M. A Cost-Effective Scheduling Algorithm for Scientific Workflows in Clouds. 2012. P. 256-265.

Ramamoorthy С. V., Chandy K.M., Gonzalez M.J. Optimal Scheduling Strategies in a Multiprocessor System // IEEE Trans. Comput. 1972. Vol. C-21, N 2. P. 137-146. Adam T.L., Chandy K.M., Dickson J.R. A comparison of list schedules for parallel processing systems // Commun. ACM. 1974. Vol. 17, N 12. P. 685-690.

Gerasoulis A., Yang T. A comparison of clustering heuristics for scheduling directed acyclic graphs on multiprocessors // J. Parallel Distrib. Comput. 1992. Vol. 16, N 4. P. 276-291. Topcuoglu H., Hariri S. Task scheduling algorithms for heterogeneous processors // Proc. Eighth Heterog. Comput. Work. IEEE Comput. Soc. 1999. P. 3-14.

Ilavarasan E., Thambidurai P. Low Complexity Performance Effective Task Scheduling Algorithm for Heterogeneous Computing Environments. 2007. Vol. 3, N 2. P. 94-103. Djellab K. Scheduling preemptive jobs with precedence constraints on parallel machines // Eur. J. Oper. Res. 1999. Vol. 117, N 2. P. 355-367.

Wang Q., Cheng K.H. List scheduling of parallel tasks // Inf. Process. Lett. 1991. Vol. 37, N 5. P. 291-297.

Radulescu A. et al. CPR: mixed task and data parallel scheduling for distributed systems // Proc. 15th Int. Parallel Distrib. Process. Symp. IPDPS. 2001. P. 1-8.

Radulescu A., GemundA.J.C. Van. A low-cost approach towards mixed task and data parallel scheduling // Int. Conf. Parallel Process. 2001. P. 1-20.

Towsley D. Allocating programs containing branches and loops within a multiple processor system // IEEE Trans. Softw. Eng. 1986. Vol. SE-12, N 10. P. 1018-1024. El-Rewini H, Lewis T.G. Scheduling parallel program tasks onto arbitrary target machines // J. Parallel Distrib. Comput. 1990. Vol. 9, N 2. P. 138-153.

129

49. Yu J., Buyya R., Tham C.K. Cost-based Scheduling of Scientific Workflow Applications on Utility Grids // Proc. First IEEE Int. Conf. e-Science Grid Comput. 2005. P. 140-147.

50. Yu J. QoS-based Scheduling of Workflows on Global Grids. The University of Melbourne, 2007. P.175.

51. Hirales-Carbajal A. et al. Multiple Workflow Scheduling Strategies with User Run Time Estimates on a Grid // J. Grid Comput. 2012. Vol. 10, N 2. P. 325-346.

52. Afzal A., Darlington J., Mcgough A.S. Stochastic Workflow Scheduling with QoS Guarantees in Grid Computing Environments. 2006. P. 1-8.

53. Zhao H., Sakellariou R. Scheduling Multiple DAGs onto Heterogeneous Systems // Parallel Distrib. Process. Simp. IPDPS'06. Washington: IEEE Computer Society, 2006. P. 14.

54. Bittencourt L.F., Madeira E.RM. Towards the Scheduling of Multiple Workflows on Computational Grids // J. Grid Comput. 2009. Vol. 8, N 3. P. 419-441.

55. N'Takpe T., Suter F. Concurrent scheduling of parallel task graphs on multi-clusters using constrained resource allocations // Int. Symp. Parallel Distrib. Process. IEEE. 2009. P. 1-8.

56. Lin C., Lu S. Scheduling Scientific Workflows Elastically for Cloud Computing. 2011. P. 12.

57. Caron E. et al. Budget Constrained Resource Allocation for Non-Deterministic Workflows on a IaaS Cloud. 2012. May. P. 30.

58. Ebrahimirad V. Energy-aware Scheduling Algorithm for Precedence-Constrained Parallel Tasks of Network-intensive Applications in a Distributed Homogeneous Environment. 2010. P. 359-366.

59. Durillo J. J., Nae V., Prodan R. Multi-objective energy-efficient workflow scheduling using list-based heuristics // Futur. Gener. Comput. Syst. Elsevier B.V., 2013.

60. Malawski M. et al. Cost- and Deadline-Constrained Provisioning for Scientific Workflow Ensembles in IaaS Clouds // Int. Conf. High Perform. Comput. Networking, Storage Anal. 2012. P. 1-11.

61. Garey M.R., Johnson D.S. Computers and Intractability: A Guide to the Theory of NP-Completeness. San Francisco: W. H. Freeman and Company, 1979. P. 338.

62. Blythe J. et al. Task scheduling strategies for workflow-based applications in grids // IEEE Int. Symp. Clust. Comput. Grid. IEEE. 2005. Vol. 2. P. 759-767.

63. Ahmad I., Kwok Y.-K. Static scheduling algorithms for allocating directed task graphs to multiprocessors // ACM Comput. Surv. 1999. Vol. 31, N 4. P. 406^*71.

64. Monge D., Garino C.G. Improving Worklows Execution on DAGMan by a Performance-driven Scheduling Tool //High-Performance Comput. Lat. Am. 2010. P. 3271-3285.

65,

66,

67

68

69

70

71

72

73

74

75

76

77

78

79

80

Jarvis S.A., Saini S., Nudd G.R. GridFlow: workflow management for grid computing // Proc. 3rd IEEE/ACM Int. Symp. Clust. Comput. Grid. IEEE. 2003. P. 198-205. Streit A. et al. UNICORE 6 — Recent and Future Advancements // Ann. Telecommun. -Ann. des télécommunications. 2010. Vol. 65, N 11-12. P. 757-762.

Lee K. et al. Adaptive workflow processing and execution in Pegasus. The 3rd International Conference on Grid and Pervasive Computing Workshops, 2008. P. 99-106. Sonmez O. et al. Performance analysis of dynamic workflow scheduling in multicluster grids // Proc. 19th ACM Int. Symp. High Perform. Distrib. Comput. - HPDC '10. NY: ACM Press, 2010. P. 49.

Kovalchuk S. V et al. Knowledge-based Expressive Technologies within Cloud Computing Environments: Software Engineering; Distributed, Parallel, and Cluster Computing // 8th Int. Conf. Intell. Syst. Knowl. Eng. 2013. P. 1-10.

Becker W., Waldmann G. Exploiting inter task dependencies for dynamic load balancing // Proc. 3rd IEEE Int. Symp. High Perform. Distrib. Comput. 1994. August. P. 1-9. Xhafa F., Abraham A. Metaheuristics for Scheduling in Distributed Computing Environments. Berlin, Heidelberg: Springer, 2008. Vol. 146. P. 373.

N'Takpe T., Suter F. Self-constrained resource allocation procedures for parallel task graph scheduling on shared computing grids // 19th IASTED Int. Conf. Parallel Distrib. Comput. Syst. 2007. P. 36^11.

Maheswaran M. et al. Dynamic matching and scheduling of a class of independent tasks onto heterogeneous computing systems // Proc. 8th Heterog. Comput. Work. IEEE Comput. Soc. 1999. P. 30^44.

Iverson M.A., Ozguner F., Folien G.J. Parallelizing Existing Applications in a Distributed Heterogeneous Environment//4th Heterog. Comput. Work. 1995. P. 93-100. He X., Sun X., Laszewski G. QoS guided Min-Min heuristic for grid task scheduling // J. Comput. Sci. Technol. 2003. Vol. 18, N 4. P. 442-451.

Hu T. Parallel Sequencing and Assembly Line Problem // Oper. Res. 1961. N 9. P. 841-848. Coffman E.G., Graham R.L. Optimal scheduling for two-processor systems // Acta Inform. 1972. Vol. 1, N 3. P. 200-213.

Chandy K.M., Reynolds P.F. Scheduling partially ordered tasks with probabilistic execution times // Proc. 5th Symp. Oper. Syst. Princ. - SOSP '75. NY: ACM Press, 1975. P. 169-177. Lewis T., El-Rewini H. Parallax: a tool for parallel program scheduling // IEEE Parallel Distrib. Technol. Syst. Appl. 1993. Vol. 1, N 2. P. 62-72.

Gan B. P., Huang S. Y. The modified mapping heuristic algorithm // Proc. 2nd Int. Conf. Algorithms Archit. Parallel Process. ICA/sup 3/PP '96. IEEE. 1996. P. 456-463.

131

81.

82.

83.

84.

85,

86

87

88

89

90

91

92,

93,

94,

95.

96.

Arabnejad H., Barbosa J.G. List Scheduling Algorithm for Heterogeneous Systems by an

Optimistic Cost Table // IEEE Trans. Parallel Distrib. Syst. 2014. Vol. 25, N 3. P. 682-694.

Dongarra J.J., Shi Z. Scheduling workflow applications on processors with different

capabilities // Futur. Gener. Comput. Syst. 2006. Vol. 22, N 6. P. 665-675.

Sakellariou R, Zhao H. A hybrid heuristic for DAG scheduling on heterogeneous systems //

Proc. 18th Int. Parallel Distrib. Process. Symp. IEEE. 2004. P. 111-123.

Sih G.C., Lee E.A. A Compile-Time Scheduling Heuristic Heterogeneous Processor

Architectures. 1993. Vol. 4, N 2. P. 175-187.

Rahman M., Venugopal S., Buyya R. A Dynamic Critical Path Algorithm for Scheduling Scientific Workflow Applications on Global Grids // 3rd IEEE Int. Conf. e-Science Grid Comput. (e-Science 2007). IEEE. 2007. P. 35^12.

Ahmad I. Dynamic critical-path scheduling: an effective technique for allocating task graphs to multiprocessors // IEEE Trans. Parallel Distrib. Syst. 1996. Vol. 7, N 5. P. 506-521. Montagnat J. et al. Bibliography on Workflow Scheduling Heuristics. 2008. P. 1-19. Yang T., Gerasoulis A., Brunswick N. DSC : Scheduling Parallel Tasks on an Unbounded Number of. 1993. N 1. P. 1-33.

Kim S.J., Browne J.C. A General approach to mapping of parallel computation upon

multiprocessor architectures // Int. Conf. Parallel Process. 1988. Vol. 3. P. 1-8.

Bittencourt L.F., Madeira E.R.M. A performance-oriented adaptive scheduler for dependent

tasks on grids // Concurr. Comput. Pract. Exp. 2008. Vol. 20, N 9. P. 1029-1049.

Ahmad I. Analysis, evaluation, and comparison of algorithms for scheduling task graphs on

parallel processors // Proc. 2nd Int. Symp. Parallel Archit. Algorithms, Networks. IEEE

Comput. Soc. Press. 1996. P. 207-213.

Blythe J. et al. Task scheduling strategies for workflow-based applications in grids // IEEE Int. Symp. Clust. Comput. Grid. IEEE. 2005. Vol. 2. P. 759-767.

Rahmani A.M., Rezvani M. A Novel Genetic Algorithm for Static Task Scheduling in Distributed Systems // Int. J. Comput. Theory Eng. 2009. Vol. 1, N 1. P. 1-6. Yu J., Buyya R. Scheduling scientific workflow applications with deadline and budget constraints using genetic algorithms // Sci. Program. 2006. Vol. 14. P. 217-230. Ramaswamy S., Sapatnekar S., Banerjee P. A framework for exploiting task and data parallelism on distributed memory multicomputers // IEEE Trans. Parallel Distrib. Syst. 1997. Vol. 8, N11. P. 1098-1116.

Vydyanathan N., Krishnamoorthy S., Sab in G. An Integrated Approach to Locality Conscious Processor Allocation and Scheduling of Mixed Parallel Applications. IEEE Transactions on Parallel and Distributed Systems, Volume 20, Issue 8, 2009. P. 1158-1172.

132

97. N'Takpe T., Suter F. Critical path and area based scheduling of parallel task graphs on heterogeneous platforms // 12th Int. Conf. Parallel Distrib. Syst. IEEE. 2006. P. 8.

98. Casanova H., Suter F., Desprez F. From Heterogeneous Task Scheduling to Heterogeneous Mixed Parallel Scheduling // Euro-Par 2004 Parallel Process. Pisa, 2004. P. 230-237.

99. Hunold S. Low-Cost Tuning of Two-Step Algorithms for Scheduling Mixed-Parallel Applications onto Homogeneous Clusters // 10th IEEE/ACM Int. Conf. Clust. Cloud Grid Comput. IEEE. 2010. P. 253-262.

100. Genez T. a L., Bittencourt L.F., Madeira E.R.M. Workflow scheduling for SaaS / PaaS cloud providers considering two SLA levels //Netw. Oper. Manag. Symp. IEEE. 2012. P. 906-912.

101. Moens H., Handekyn K., Turck F. De. Cost-Aware Scheduling of Deadline-Constrained Task Workflows in Public Cloud Environments // Integr. Netw. Manag. 2013. P. 68-75.

102. Yuan Y. et al. Bottom Level Based Heuristic for Workflow Scheduling in Grids // Chinese J. Comput. 2008. N 31. P. 282-290.

103. Verma A., Kaushal S. Deadline and Budget Distribution based Cost- Time Optimization Workflow Scheduling Algorithm for Cloud // Int. Conf. Recent Adv. Futur. Trends Inf. Technol. 2012. P. 1-4.

104. Wang Q. et al. Deadline division-based heuristic for cost optimization in workflow scheduling // Inf. Sci. 2009. Vol. 179, N 15. P. 2562-2575.

105. Naghibzadeh M., Abrishami S. Deadline-constrained workflow scheduling in software as a service Cloud // Sci. Iran. 2012. Vol. 19, N 3. P. 680-689.

106. Epema D.H.J., Naghibzadeh M., Abrishami S. Deadline-constrained workflow scheduling algorithms for Infrastructure as a Service Clouds // Futur. Gener. Comput. Syst. 2013. Vol. 29, N 1. P. 158-169.

107. GargS.K., Buyya R., Siegel H.J. Scheduling Parallel Applications on Utility Grids: Time and Cost Trade-off Management. Future Generation Computer Systems, Vol. 26, Issue 8, 2010. P. 1344-1355.

108. Fard H.M. et al. A Multi-objective Approach for Workflow Scheduling in Heterogeneous Environments // 12th IEEE/ACM Int. Symp. Clust. Cloud Grid Comput. (ccgrid 2012). IEEE. 2012. P. 300-309.

109. Zeng J. et al. Multi-objective Optimal Grid Workflow Scheduling with QoS Constraints // Fuzzy Inf. Eng. Vol. 2 SE-91 / Ed. by B. Cao, T.-F. Li, C.-Y. Zhang. Berlin, Heidelberg: Springer, 2009. Vol. 62. P. 839-847.

110. Garg R. Multi-Objective Optimization to Workflow Grid Scheduling using Reference Point based Evolutionary Algorithm. 2011. Vol. 22, N 6. P. 44-49.

111. Durillo J.J., Prodan R. Multi-objective workflow scheduling in Amazon EC2. Cluster Computing, Vol. 17, Issue 2, 2014. P. 169-189.

112. Masko L. Scheduling Moldable Tasks for Dynamic SMP Clusters in SoC Technology. 2006. Vol. 3911. P. 879-887.

113. Mao M., Humphrey M. Auto-scaling to minimize cost and meet application deadlines in cloud workflows // Proc. Int. Conf. High Perform. Comput. Networking, Storage Anal. - SC '11. NY: ACM Press, 2011. P. 1.

114. Beckman P. Urgent Computing: Exploring Supercomputing's New Role // CTWatch Quarterly. 2008. Vol. 4, N 1 [Electronic resource]: < http://www.ctwatch.org/quarterly/articles/2008/03/urgent-computing-exploring-supercomputings-new-role >.

115. Концепция экстренных вычислений. 2011 [Electronic resource]: <http://escience.ifmo.ru/p220/uc_conception.htm >.

116. Beckman P. et al. Building an Infrastructure for Urgent Computing // High Perform. Comput. Grids Action. IOS Press, 2008. P. 75-95.

117. Zhao Z. et al. Including the state of the art scientific workflow management systems in an e-Science environment. 1 st IEEE International Conference on e-Science and Grid Computing, 2005. P. 1-10.

118. Gupta K., Singh M. Heuristic Based Task Scheduling In Grid. 2012. Vol. 4, N 4. P. 254-260.

119. Frédéric Suter. Source Code of Daggen. 1998 [Electronic resource]: <http://www.loria.fr/~suter/dags >.

120. Pegasus Workflow Generator [Electronic resource]: <https://confluence.pegasus.isi.edu/display/pegasus/WorkflowGenerator>.

121. Juve G. et al. Characterizing and Profiling Scientific Workflows. Future Generation Computer Systems, Vol. 29, Issue 3, 2013. P. 682-692.

122. Agrawal K., Benoit A., Robert Y. Mapping Linear Workflows with Computation/Communication Overlap // 14th Int. Conf. Parallel Distrib. Syst. IEEE. 2008. P. 195-202.

123. Prajapati H.B., Shah V.A. Advance Reservation based DAG Application Scheduling Simulator for Grid Environment. International Journal of Computer Applications, 2013. P. 1-7.

124. CloudSim. 2014 [Electronic resource]: <http://www.cloudbus.org/cloudsim >.

125. WorkflowSim [Electronic resource]: <http://www.workflowsim.org >.

126. Singh R. Prioritized Workflow Scheduling in Cloud Computing. 2013. P. 42-46.

128.

129.

130.

131.

132.

133.

134.

Chen W. et al. Balanced Task Clustering in Scientific Workflows. IEEE 9th International Conference on eScience (eScience), 2013. P. 188-195.

Wieczorek M., Prodan R., Fahringer T. Scheduling of scientific workflows in the ASKALON grid environment // ACM SIGMOD Ree. 2005. Vol. 34, N 3. P. 56. Chervenak A. et al. Data Placement for Scientific Applications in Distributed Environments. Proceedings of the 8th IEEE/ACM International Conference on Grid Computing, 2007. P. 267-274.

Montage. An astronomical image mosaic engine [Electronic resource]: <http://montage.ipac.caltech.edu/docs/gridtools.html>.

Deelman E., Gannon D., Shields M.S. Workflows for e-Science Scientific Workflows for

Grids. Springer, 2006. P. 532.

Epigenomics workflow [Electronic resource]:

<https://confluence.pegasus.isi.edu/display/pegasus/Epigenomics+Characterization >. Ivanov S. V. et al. Simulation-based collaborative decision support for surge floods prevention in St. Petersburg // J. Comput. Sei. Elsevier, 2012. Vol. 3, N 6. P. 450^155. Kosukhin S.S., Kalyuzhnaya A. V., Nasonov D. Problem Solving Environment for Development and Maintenance of St. Petersburg's Flood Warning System // Procedia Comput. Sei. 2014. Vol. 29. P. 1667-1676.

Обратите внимание, представленные выше научные тексты размещены для ознакомления и получены посредством распознавания оригинальных текстов диссертаций (OCR). В связи с чем, в них могут содержаться ошибки, связанные с несовершенством алгоритмов распознавания. В PDF файлах диссертаций и авторефератов, которые мы доставляем, подобных ошибок нет.