Методы ускорения расчетов математических моделей молекулярной динамики на гибридных вычислительных системах тема диссертации и автореферата по ВАК РФ 05.13.18, кандидат наук Марьин, Дмитрий Фагимович
- Специальность ВАК РФ05.13.18
- Количество страниц 146
Оглавление диссертации кандидат наук Марьин, Дмитрий Фагимович
Содержание
Введение
1. Обзор литературы
2. Математическая модель
2.1. Моделирование методами молекулярной динамики
2.2. Расчет макроскопических свойств
2.3. Ансамбли
2.4. Начальные условия
2.5. Граничные условия
2.6. Численная схема
2.7. Модель неполярных молекул
2.8. Модель полярных молекул на примере молекул воды
2.9. Модель металлических включений на примере платины
2.10. Модель вода-платина
2.11. Метод моделирования гетерогенной кавитации
2.12. Термостатирование
2.13. Обезразмеривание
2.14. Общий алгоритм моделирования методом молекулярной динамики
3. Методы ускорения расчётов
3.1. Ускорение при помощи архитектурных решений
3.2. Иерархическая структура данных
3.3. Использование иерархической структуры данных для расчета ближнего взаимодействия
3.4. Быстрый метод мультиполей
3.5. Быстрый метод мультиполей для гибридных архитектур
3.6. Одноуровневая структура данных для ближнего взаимодействия
3.7. Краткое описание комплекса программ
4. Тестовые и практические расчеты
4.1. Динамика системы пар-жидкость
4.2. Уравнение состояния и вычисление давления
4.3. Функция радиального распределения для молекул воды
4.4. Выбор радиуса обрезки потенциала Леннард—Джонса
4.5. Исследование растекания капли воды по поверхности платины
4.6. Исследование масштабируемости в задаче гетерогенной кавитации
4.7. Многокомпонентная нуклеация вблизи подложки
Заключение
Список условных сокращений
Литература
Приложение
Рекомендованный список диссертаций по специальности «Математическое моделирование, численные методы и комплексы программ», 05.13.18 шифр ВАК
Исследование прочности жидкости на разрыв методами молекулярной динамики2014 год, кандидат наук Малышев, Виктор Леонидович
Исследование взаимодействия нанопузырьков с твердой поверхностью методом молекулярной динамики2014 год, кандидат наук Моисеева, Елена Флоридовна
Моделирование стоксовых течений и динамики деформируемых капель масштабируемым методом граничных элементов2014 год, кандидат наук Абрамова, Ольга Александровна
Исследование процессов взаимодействия и инкапсуляции пептидов и небольших молекулярных структур с углеродной нанотрубкой на основе гибридных подходов молекулярной динамики2017 год, кандидат наук Хусенов Мирзоазиз Ашурович
Технология программирования алгоритмов молекулярно-динамического моделирования наносистем на графических процессорах2017 год, кандидат наук Семенов Сергей Александрович
Введение диссертации (часть автореферата) на тему «Методы ускорения расчетов математических моделей молекулярной динамики на гибридных вычислительных системах»
Введение
Необходимость расчета задач динамики множества частиц возникает во многих областях, например, при расчете молекулярно-динамического, гравитационного взаимодействий, движения частиц в потоке, и в ряде методов вычислительной гидродинамики, например, методе граничных элементов и методе частиц в ячейках. Задача N тел не имеет аналитического решения для трех и более тел. В данной работе рассматривается математическое моделирование с применением методов молекулярной динамики (МД). Вычислительные эксперименты с использованием методов МД позволяют описывать и измерять мельчайшие детали процессов, протекающих в наномасштабах. Несмотря на то, что методы МД успешно применяются для разного рода задач, исследование с их помощью реальных физических процессов было и остается весьма сложной задачей. Это связано прежде всего с тем, что при достаточно подробном математическом описании проблемы, учитывающем многомерность и многопа-раметричность, и при моделировании большого числа частиц и, как следствие, проведения большого количества вычислительных операций, серьезно возрастают требования к производительности как используемого программного кода, так и вычислительной системы в целом. Так, к примеру, область размером 100x100x100 нм3 заполненная водой (при нормальной плотности) содержит более 30 миллионов молекул. Также количество шагов по времени может составлять десятки миллионов, если необходимо исследовать динамику процессов на протяжении десятков наносекунд (типичная величина шага по времени в расчетах методами МД составляет порядка 1 фемтосекунды). Всё это накладывает серьезные ограничения на размеры моделируемых систем. Поэтому важной является задача ускорения МД расчетов.
Ускорение расчетов возможно за счет двух способов: 1) применения современных высокоэффективных методов и алгоритмов; 2) использования высокопроизводительного аппаратного обеспечения. Первый способ заключается в
снижении вычислительной сложности используемых алгоритмов. Так сложность алгоритма прямого суммирования, с помощью которого в методах МД рассчитывается взаимодействие каждой частицы с каждой напрямую, пропорциональна числу всех парных взаимодействий 0(N2) в системе состоящей из N атомов, то есть время выполнения данного алгоритма возрастает квадратично с ростом размеров системы. Это значит, что моделирование больших динамических систем нецелесообразно с применением такого рода методов. Разработка и применение методов и алгоритмов, позволяющих снизить вычислительную сложность до 0(N) или до O(NlogN), является чрезвычайно важной и актуальной задачей.
Вторым направлением повышения производительности вычислений является использование высокопроизводительных вычислительных систем. В настоящее время наиболее эффективными и доступными для задач динамики N тел, к которым относится МД, являются гибридные вычислительные системы, состоящие из многоядерных центральных и графических процессоров (CPU и GPU, соответственно). Графические процессоры состоят из множества арифметических модулей, работающих параллельно, что позволяет достичь значительной вычислительной производительности при меньших затратах (соотношение производительности к стоимости и к потребляемой энергии) по сравнению с CPU. Однако эффективное использование таких вычислительных систем требует разработки новых алгоритмов или значительной модификации существующих.
Таким образом, аппаратное ускорение и разработка алгоритмов в применении к высокопроизводительным гибридным вычислительным системам представляют существенный интерес. Такое ускорение расчетов позволит проводить многопараметрические исследования для больших систем и, тем самым, приблизиться к созданию многомасштабных методов моделирования.
Степень научной проработанности темы. Проблемам ускорения расчета ближнего взаимодействия в задачах МД посвящены работы авторов Allen, Stone, Verlet и др. Эти работы в значительной мере способствовали дальнейшему моделированию методами МД, однако, не все предложенные ими методы были оптимизированы под гибридные вычислительные системы и они не учитывали проблему оптимизации учета периодических граничных условий. Вопросам ускорения расчета дальнего взаимодействия посвящены работы авторов Barnes, Essmann и др. Однако предложенные ими методы не позволяют
уменьшить вычислительную сложность расчетов до линейной с контролируемой точностью, в отличие от быстрого метода мультиполей, разработанного Greengard и Rokhlin. Проблемам ускорения расчетов при помощи быстрого метода мультиполей на гибридных вычислительных системах посвящены труды авторов Barba, Gumerov, Yokota и др. Однако в них не рассматриваются вопросы применения к задачам МД и не во всех учитывается гетерогенность вычислительной архитектуры. Подробнее степень научной проработанности темы раскрыта в главе 1.
Целью работы является разработка высокоэффективных методов ускорения моделирования задач динамики N тел в приложении к методам молекулярной динамики, ориентированных на использование гибридных вычислительных систем, состоящих из центральных и графических процессоров, и их апробация на задачах молекулярной динамики.
Для достижения цели были поставлены следующие основные задачи:
1) Разработка методов и алгоритмов ускорения моделирования взаимодействия частиц на гибридных вычислительных системах.
2) Реализация комплекса программ для моделирования методами молекулярной динамики с использованием высокоэффективных методов и гибридных вычислительных систем. Оценка эффективности предлагаемых методов и алгоритмов. Валидация комплекса программ на тестовых задачах.
3) Разработка математического метода моделирования процесса гетерогенной кавитации на инородном включении.
4) Моделирование ряда прикладных задач: исследование влияния величины радиуса обрезки потенциала ближнего взаимодействия на рассчитываемые макропараметры; растекания капли воды по подложке; гетерогенной кавитации на инородном включении в неполярной жидкости; образования пузырька вблизи подложки в бинарной одноатомной смеси.
Положения выносимые на защиту.
1) Метод ускорения моделирования неполярных систем на основе предложенной одноуровневой структуры данных. Оригинальные алгоритмы применения быстрого метода мультиполей, построения иерархической и одноуровневой структур данных, обладающие линейной вычислительной
сложностью и ориентированные на моделирование методами молекулярной динамики жестких молекул, взаимодействующих согласно потенциалам Леннард-Джонса и Кулона, на гибридных вычислительных системах.
2) Программный комплекс для моделирования методами молекулярной динамики, созданный на основе предложенных методов и ориентированный на гибридные вычислительные системы.
3) Математический метод моделирования процесса гетерогенной кавитации в системе неполярных молекул на инородном включении с различной лио-фильностью.
4) Анализ влияния радиуса обрезки потенциала Леннард-Джонса на рассчитываемые макропараметры, влияния размеров системы в нанометро-вом диапазоне на величину давления на разрыв в процессе гетерогенной кавитации на инородном включении и на величину контактного угла в задаче растекания капли воды по подложке.
Научная новизна работы заключается в следующем.
1) Разработан уникальный метод ускорения моделирования взаимодействия с усеченным потенциалом на основе предложенной одноуровневой структуры данных, который позволяет избавиться от проверки периодических граничных условий и имеет линейную вычислительную сложность. Предложен новый вычислительный алгоритм построения иерархической структуры данных и применения быстрого метода мультиполей на гибридных вычислительных системах, направленный на моделирование методам молекулярной динамики полярных систем, взаимодействующих согласно потенциалам Леннард-Джонса и Кулона.
2) Создан оригинальный модульный программный комплекс, направленный на моделирование методами молекулярной динамики на гибридных вычислительных системах, основанный на использовании быстрого метода мультиполей, иерархической и одноуровневой структур данных.
3) Предложен новый метод моделирования процесса гетерогенной кавитации в неполярной жидкости на инородном включении с различной лиофиль-ностью.
4) С помощью разработанного программного комплекса получен ряд результатов, имеющих значение для понимания физики наномасштабных
течений. Определен оптимальный радиус обрезки потенциала Леннард-Джонса, проанализировано его влияние на ряд макропараметров в задаче кавитации. Впервые проведено моделирование влияния размеров системы в нанометровом диапазоне на величину давления на разрыв в задаче гетерогенной кавитации на инородном включении.
Методы исследования. В диссертационной работе использованы методы и подходы применяемые в области больших динамических систем. Для численных расчетов дифференциальных уравнений движения использовался метод молекулярной динамики. Для ускорения расчетов были разработаны алгоритмы с использованием структур данных и быстрого метода мультиполей. Разработанный программный продукт был реализован с использованием языков программирования C/C++, Fortran, программного пакета Matlab и технологий NVIDIA CUDA, OpenMP, MPI.
Достоверность и обоснованность результатов обусловлены применением математически обоснованных методов, сравнением с известными результатами теоретических, экспериментальных и численных исследований.
Теоретическая и практическая значимость. Разработанные алгоритмы структур данных и быстрого метода мультиполей имеют существенное значение для методов молекулярной динамики, астрофизики, физики плазмы, вычислительной гидродинамики и других областей. Благодаря гибкой модульной структуре, реализованный в работе программный комплекс применим для решения задач из тех областей, где возможно использование быстрого метода мультиполей, иерархической и одноуровневой структур данных. Разработанные алгоритмы могут быть использованы не только в применении к GPU, но и к другим многоядерным системам. Полученные при помощи численного моделирования результаты имеют значение для понимания физики процессов и для моделирования методами молекулярной динамики.
Апробация работы. Результаты работы докладывались на российских и международных конференциях и научных школах: ASME International Mechanical Engineering Congress & Exposition (Montreal, Canada, 2014; San Diego, USA, 2013; Houston, USA, 2012); International conference «Science of the Future» (Санкт-Петербург, 2014); Summer Workshop on «Dynamics of Dispersed Systems: Experimental and Numerical Research on Nano-, Micro-, Meso- and Macroscale» (Уфа, 2014); Международная конференция «Параллельные вычис-
лительные технологии (ПаВТ)» (Ростов-на-Дону, 2014; Новосибирск, 2012); XV и XIV Всероссийская конференция-школа молодых исследователей «Современные проблемы математического моделирования» (Абрау-Дюрсо, 2013, 2011); VI Всероссийская конференция «Актуальные проблемы прикладной математики и механики», посвященная памяти академика А.Ф. Сидорова (Абрау-Дюрсо, 2012); V Всероссийская конференция с международным участием «Многофазные системы: теория и приложения» (Уфа, 2012); International Conference on Numerical Methods in Multiphase Flows (ICNMMF'2012) (State College, USA,
2012); Международная школа-конференция для студентов, аспирантов и молодых ученых «Фундаментальная математика и ее приложения в естествознании» (Уфа, 2011).
Кроме того, результаты работы докладывались: в Центре «Микро- и на-номасштабная динамика дисперсных систем» Башкирского государственного университета на семинарах, проводимых под руководством академика РАН Р.И. Нигматулина, д.ф-м.н., проф. И.Ш. Ахатова и д.ф-м.н. H.A. Гумеро-ва (Уфа, 2011-2014); на семинарах в Институте механики им. P.P. Мавлютова Уфимского научного центра РАН под руководством д.ф-м.н., проф. С.Ф. Ур-манчеева (Уфа, 2011-2014); на семинарах в Институте передовых компьютерных исследований Мэрилендского университета (College Park, USA, 2012 и
2013); на региональном семинаре «Решение инженерных и научных задач на гибридных вычислительных системах. Графические процессоры и архитектура CUDA» (Уфа, 2012); на семинарах в Московском государственном университете им. М.В. Ломоносова в лаборатории многомасштабного моделирования под руководством д.ф.-м.н., проф. В.Л. Ковалева и на кафедре газовой и волновой динамики под руководством д.ф.-м.н., проф. H.H. Смирнова (Москва, 2015).
Публикации. Основные результаты диссертации опубликованы в 19 научных работах, в том числе 6 из них в рецензируемых журналах, рекомендованных ВАК, и 9 статей в трудах и сборниках конференций. По результатам работы зарегистрировано 2 разработанных комплекса программ:
1) Марьин Д.Ф., Малышев В.Л., Моисеева Е.Ф., Михайленко К.И., Гумеров H.A. MDS-W — высокопроизводительная библиотека для молекулярно-динамического моделирования воды / 2013 / Свидетельство о государственной регистрации программы для ЭВМ. Per. №2013612088.
2) Марьин Д.Ф., Малышев В.Л., Моисеева Е.Ф., Гумеров H.A. MDS-A —
молекулярно-динамическое моделирование неполярных одноатомных молекул / 2014 / Свидетельство о государственной регистрации программы для ЭВМ. Per. №2014611173.
Публикации в рецензируемых журналах, рекомендованных ВАК:
1) Марьин Д.Ф., Малышев В.Л., Моисеева Е.Ф., Гумеров Н.А., Ахатов И.Ш., Михайленко К.И. Ускорение молекулярно-динамических расчетов с помощью быстрого метода мультиполей и графических процессоров // Вычислительные методы и программирование. — 2013. — Т. 14. — С. 483-495.
2) Малышев B.JL, Марьин Д.Ф., Моисеева Е.Ф., Гумеров Н.А., Ахатов И.Ш. Ускорение молекулярно-динамического моделирования неполярных молекул при помощи GPU // Вестник Нижегородского университета им. Н.И. Лобачевского. - 2014. - Вып. 3. - С. 126-133.
3) Моисеева Е.Ф., Марьин Д.Ф., Малышев В.Л., Гумеров Н.А., Ахатов И.Ш. Исследование контактного угла и объема поверхностного нанопузырька методами молекулярной динамики // Математическое моделирование. — 2015. - Т. 27, № 4. - С. 115-126.
4) Малышев В.Л., Марьин Д.Ф., Моисеева Е.Ф., Гумеров Н.А., Ахатов И.Ш. Исследование прочности жидкости на разрыв методами молекулярной динамики // Теплофизика высоких температур. — 2015. — Т. 53, № 3. — С. 423-429.
5) Moiseeva E.F., Mikhaylenko C.I., Malyshev V.L., Maryin D.F., Gumerov N.A. FMM/GPU accelerated molecular dynamics simulation of phase transitions in water-nitrogen-metal systems // Proceedings of the «ASME 2012 International Mechanical Engineering Congress & Exposition», November 915, 2012. - Houston, USA. - 10 p. - Paper No. IMECE2012-86246.
6) Moiseeva E.F., Malyshev V.L., Marin D.F., Gumerov N.A., Akhatov I.Sh. Molecular dynamics simulations of nanobubbles formation near the substrate in a liquid with dissolved gas // Proceedings of the «ASME 2014 International Mechanical Engineering Congress h Exposition», November 14-20, 2014. — Montreal, Canada. - 8 p. - Paper No. IMECE2014-37050.
Основные публикации в других изданиях:
7) Марьин Д.Ф. Использование графических процессоров при решении задач молекулярной динамики // Труды Института механики УНЦ РАН.
Вып. 8 / Под ред. С.Ф. Урманчеева — Уфа: Нефтегазовое дело, 2011. — С. 182-188.
8) Марьин Д.Ф. Ускорение расчёта процессов молекулярной динамики при помощи GPU // Параллельные вычислительные технологии (ПаВТ'2012): Труды международной научной конференции [Электронный ресурс] — Челябинск: Издательский центр ЮУрГУ, 2012. — С. 606-611.
9) Марьин Д.Ф. Ускорение молекулярно-динамического моделирования многофазных систем при помощи GPU // Труды Института механики им. P.P. Мавлютова Уфимского научного центра РАН. Вып. 9. / Материалы V Российской конференции с международным участием «Многофазные системы: теория и приложения», посвященной 20-летию со дня основания Института механики им. P.P. Мавлютова УНЦ РАН, 2012. — С. 76-79.
10) Малышев В. JL, Марьин Д. Ф., Моисеева Е. Ф. Новая структура данных для расчета ближнего взаимодействия в методах молекулярной динамики // Сборник трудов XV Всероссийской конференции-школы молодых исследователей. — Ростов-на-Дону: Издательство Южного федерального университета, 2013. — С. 155-159.
11) Малышев В.Л., Марьин Д.Ф., Моисеева Е.Ф., Гумеров H.A., Ахатов И.Ш. Определение поверхностного натяжения методами молекулярной динамики для одноатомных веществ // Труды Института механики им. Р. Р. Мавлютова УНЦ РАН. Вып. 10. / Под ред. С.Ф. Урманчеева — Уфа: Нефтегазовое дело, 2013 — 5 С.
12) Малышев В.Л., Марьин Д.Ф., Моисеева Е.Ф., Гумеров H.A., Ахатов И.Ш. Ускорение молекулярно-динамического моделирования неполярных молекул при помощи GPU // Параллельные вычислительные технологии (ПаВТ'2014): Труды международной научной конференции [Электронный ресурс] — Челябинск: Издательский центр ЮУрГУ, 2014. — С. 140-149.
Объем и структура работы. Диссертация состоит из введения, четырех глав, одного приложения, заключения и списка литературы. Работа изложена на 146 страницах, содержит 42 рисунка и 18 таблиц. Список литературы содержит 127 наименований.
Во введении формулируются цели и задачи диссертации, показываются
актуальность, научная новизна и практическая значимость работы, и положения, выносимые на защиту
В первой главе, носящей обзорный характер, описываются существующие работы в данной области, методы и подходы решения поставленных задач.
Во второй главе описывается метод молекулярной динамики, приводятся математические модели поставленных задач, описываются способы расчета макроскопических параметров, обезразмеривание.
В третьей главе описываются методы и алгоритмы иерархической и одноуровневой структур данных, быстрого метода мультиполей в применении к гибридным архитектурам, приводятся результаты их применения для ускорения моделирования методами молекулярной динамики.
В четвертой главе приводятся результаты тестирования разработанных кодов на соответствие результатов с известными теоретическими и экспериментальными данными. Приводятся результаты по комплексному исследованию ряда практических задач методами молекулярной динамики с использованием разработанных программных продуктов.
В заключении описаны основные результаты диссертации.
В приложении приводятся алгоритмы генерации структур данных.
Исследования, результаты которых представлены в диссертации, проводились при поддержке грантов Министерства образования и науки Российской Федерации (11.G34.31.0040), РФФИ (12-01-31083-мол_а) и «У.М.Н.И.К.».
Работа выполнена в Центре «Микро- и наномасштабная динамика дисперсных систем» ФГБОУ ВПО «Башкирский государственный университет» и Федеральном государственном бюджетном учреждении науки Институт механики им. P.P. Мавлютова Уфимского научного центра Российской академии наук. Автор благодарит научного руководителя H.A. Гумерова, научного консультанта К.И. Михайленко и коллектив Центра в лице Е.Ф. Моисеевой, B.JI. Малышева и И.Ш. Ахатова, а также С.Ф. Урманчеева за помощь в подготовке диссертации.
Глава 1.
Обзор литературы
Методы молекулярной динамики (МД) могут применяться для исследования динамических свойств газов, жидкостей, твердых тел и взаимодействий между ними. Кроме методов МД, для моделирования на молекулярном уровне применяются метод твердых сфер [62], метод Монте-Карло [7; 20], методы основанные на квантовой теории (MM/QM) [17]. Выбор метода моделирования основан на решаемой задаче.
Первые попытки моделирования методами МД были осуществлены с появлением первых компьютеров в конце 50-х — начале 60-х годов XX века [19; 53; 98]. Одна из первых таких работ под авторством B.J. Alder и Т.Е. Wainwright вышла в 1957 году [19]. Целью этой работы было исследование фазовой диаграммы системы молекул, представленных в виде твердых сфер, и, в частности, области твердого тела и жидкости. В работе моделировалась динамика 32 и 108 молекул, взаимодействующих как бильярдные шары. В 1960 г. вышла работа J.B. Gibson и др. [53], ставшая первым примером моделирования с непрерывным потенциалом. В работе 1964 г. A. Rahman [98] исследовал свойства жидкого аргона, используя потенциал Леннард—Джонса.
В методе МД для описания движения атомов применяется классическая механика и силы межатомного взаимодействия представляются в форме потенциальных сил. Параметры потенциала могут быть получены из теоретических предпосылок, полуэмпирических или из физических экспериментов. Потенциал описывает два типа молекулярных свойств: 1) связанное взаимодействие (силы, связывающие атомы внутри одной молекул), которое характеризует растягивание межпарных связей, изгиб валентных углов, вращение двугранных углов; 2) несвязанное взаимодействие, которое характеризует дисперсию, электроста-
тическое взаимодействие и т.д. Также потенциал может включать воздействие внешних сил, например, внешних стенок. Именно расчет несвязанного взаимодействия является самым ресурсоемким, расчет связанного взаимодействия имеет линейную вычислительную сложность. Поэтому в данной работе рассматривается только несвязанное взаимодействие, как наиболее вычислительно сложное, и, соответственно, используются модели жестких молекул. В случае моделирования жестких молекул основным является парное взаимодействие [24]. Потенциалы, применяемые в методе МД для моделирования несвязанного взаимодействия, могут описывать близкодействующие взаимодействия (на каждый атом существенно влияние лишь его ближайшего окружения), к таким относится, например, потенциал Леннард—Джонса, и дальнодействую-щие, например, потенциал Кулона, описывающий электростатическое взаимодействие.
За последние полстолетия использования методов МД с развитием вычислительных технологий и разработкой новых алгоритмов количество частиц, которые возможно промоделировать выросло на несколько порядков: с десятков атомов до триллионов. Так, например, в 1964 в работе A. Rahman [98] численно исследовалась система из 864 атомов аргона взаимодействующих при помощи потенциала Леннард—Джонса с использованием периодических граничных условий. В 2008 году Т.С. Germann и К. Kadau [52] провели демонстрационное моделирование триллиона леннард-джонсовских частиц (с радиусом обрезки 2.5<т) на суперкомпьютере BlueGene/L. Однако расчеты, подобные последнему, носят чисто демонстрационный характер — использование и обработка такого большого числа частиц при проведении широкомасштабных исследований пока не представляются возможными.
Рассмотрим подробнее способы ускорения МД расчетов: алгоритмические и с использованием высокопроизводительных вычислительных технологий.
Существуют разные методы алгоритмического ускорения расчета ближнего взаимодействия. Все они основаны на быстроубывающей природе описывающего его потенциала и, следовательно, малом радиусе взаимодействия. В 1967 г. L. Verlet [122] предложил метод («список Верле»), суть которого заключается в следующем: каждые п шагов для каждого атома А{ создается список всех атомов, находящихся внутри сферы с центром в атоме Ai и радиусом много большим радиуса обрезки потенциала взаимодействия; последующие n— 1 шагов при
расчете взаимодействия на атом А{ учитываются лишь атомы, находящиеся в этом списке, с проверкой по радиусу обрезки. Радиус сферы и количество шагов выбираются так, чтобы атомы не успели перелететь из сферы, ограниченной радиусом обрезки, в область вне большей сферы и наоборот за это количество шагов. Данный метод позволяет ускорить расчет ближнего взаимодействия в десятки раз, однако, сложность создания такого списка 0(N2), где N — число атомов, также этот список требует большого объема памяти для его хранения. В 1987 г. М.Р. Allen и D.J. Tildesley [20] предложили метод списка по ячейкам, смысл которого заключается в разделении всей моделируемой области на непересекающиеся ячейки, распределении частиц по этим ячейкам согласно их координатам и использовании связанных списков (список частиц, находящихся в боксе) для определения взаимодействия частиц друг с другом.
Алгоритмическое ускорение расчета дальнего взаимодействия является более сложной проблемой. При использовании алгоритма прямого суммирования (расчет всех парных взаимодействий напрямую), вычислительная сложность алгоритма оценивается как 0(N2), где N — число частиц. Одним из самых первых подходов, примененных для уменьшения его вычислительной сложности, было использование обрезки потенциала на некотором радиусе подобно ближнему взаимодействию. Однако ввиду медленно убывающей природы потенциалов дальнего взаимодействия такого рода метод является очень неточным. Другим методом является прямое суммирование с использованием оценочных точек [117]: в моделируемой области распределяются оценочные точки (например, по прямоугольной сетке); влияние каждого атома в системе суммируется в каждой оценочной точке (потенциальная энергия рассчитывается в дискретных координатах сетки); вместо расчета взаимодействия каждого атома с каждым, рассчитывается влияние оценочных точек на атомы. Вычислительная сложность такого метода О (NM), где N — число атомов, М — число оценочных точек, однако, этот метод непрактичен, так как с ростом N значительно растет и число оценочных точек.
Альтернативным путем расчета дальнего взаимодействия является использование быстрых аппроксимационных методов. Одними из самых распространенных методов быстрого расчета кулоновского взаимодействия в бесконечной периодической системе частиц являются методы, основанные на суммировании Эвальда, предложенном P.P. Ewald в 1921 г. [48]. Суммирование Эвальда на-
правлено на вычисление взаимодействия между набором частиц и всеми их периодическими образами для решения проблемы сходимости прямой суммы. На его основе были сконструированы несколько быстрых алгоритмов. Современные методы, основанные на методе суммирования Эвальда, используют быстрое преобразование Фурье (fast Fourier transformation, FFT). Основными представителями этой группы являются метод Р3М (РРРМ, particle-particle particle-mesh), предложенный в 1994 г. [80; 99], метод РМЕ (particle-mesh Ewald), разработанный в 1993 г. [40], и его модификация SPME (smooth РМЕ), предложенная в 1995 г. [46]. Они основаны на алгоритме, разработанном R.W. Hockney и J.W. Eastwood в 1980 г. [44; 68]. В методах Р3М и РМЕ электростатическое поле представляется в виде суммы двух компонент: сил ближнего взаимодействия и оставшихся сил дальнего взаимодействия. Первые рассчитываются с использованием радиуса обрезки и метода подобного списку по ячейкам, а вторые вычисляются путем расширения регулярной сетки по области и решения уравнения Пуассона на сетке с использованием FFT для ускорения решения. Эти методы позволяют уменьшить вычислительную сложность до 0(N\ogN), где N — число частиц в периодической ячейке.
Похожие диссертационные работы по специальности «Математическое моделирование, численные методы и комплексы программ», 05.13.18 шифр ВАК
Молекулярно-динамическое моделирование низкотемпературной деформации стеклообразного полиметилена2014 год, кандидат наук Стрельников, Иван Александрович
Молекулярные модели газовых гидратов2016 год, кандидат наук Смирнов, Григорий Сергеевич
Моделирование направленных взаимодействий в органических адсорбционных слоях2015 год, кандидат наук Акименко, Сергей Сергеевич
Математическое моделирование процессов плавления и детонационного горения ультрадисперсных частиц металлов2021 год, кандидат наук Лаврук Сергей Андреевич
ИССЛЕДОВАНИЕ ГИДРОФОБНОГО ВЗАИМОДЕЙСТВИЯАМФИФИЛЬНЫХ МОЛЕКУЛМЕТОДОМ МОЛЕКУЛЯРНОЙ ДИНАМИКИ2016 год, кандидат наук Ким Александра Валерьевна
Список литературы диссертационного исследования кандидат наук Марьин, Дмитрий Фагимович, 2015 год
Литература
1. Байдаков В. Г., Проценко С. П. Метастабильные состояния при фазовом переходе жидкость-газ. Моделирование методом молекулярной динамики // Теплофизика высоких температур. — 2003. — Т. 41, № 2. — С. 231— 236.
2. Боресков А. В., Харламов А. А. Основы работы с технологией С1ЮА. — М.: ДМК-Пресс, 2010. - С. 232.
3. Варгафтик Н. Б. Справочник по теплофизическим свойствам газов и жидкостей. — М. : Наука, 1972. - С. 721.
4. Головнев И. Ф., Головнева Е. И., Фомин В. М. Проблемы исследования стохастических и динамических свойств системы с потенциалом Леннард-Джонса методом молекулярной динамики // Вычислительная механика сплошных сред. - 2013. - Т. 6, № 3. - С. 317-327.
5. Гумеров Н. А. Быстрый метод мультиполей // Вестник Академии наук Республики Башкортостан. - 2013. — Т. 18, № 4. — С. 11-24.
6. Жданов Э. Р. Исследование уравнения состояния и теплофизических свойств жидких бинарных смесей: дис. ... канд. физ.-мат. наук : 01.04.14 / Жданов Эдуард Рифович. — Уфа : Башкирский государственный педагогический университет, 2004. — С. 107.
7. Замалин В. М., Норман Г. <9., Филинов В. С. Метод Монте-Карло в статистической термодинамике. — М. : Наука, 1977. — С. 229.
8. Зацепина Г. Н. Свойства и структура воды. — М. : Издательство Московского Университета, 1974. — С. 168.
9. Малышев В. Л., Марьин Д. Ф., Моисеева Е. Ф., Гумеров Н. А., Ахатов И. Ш. Исследование прочности жидкости на разрыв методами молекулярной динамики // Теплофизика высоких температур. — 2015. — Т. 53, № 3. - С. 423-429.
10. Малышев В. JI., Марьин Д. Ф., Моисеева Е. Ф., Гумеров Н. А., Ахатов И. Ш. Определение поверхностного натяжения методами молекулярной динамики для одноатомных веществ // Труды Института механики им. P.P. Мавлютова Уфимского научного центра РАН. Т. 10 / под ред. С. Ф. Урманчеев. — Уфа : Нефтегазовое дело, 2013. — С. 5.
11. Малышев В. Л. Исследование прочности жидкости на разрыв методами молекулярной динамики: дис. ... канд. физ.-мат. наук : 01.02.05 / Малышев Виктор Леонидович. — Уфа : Башкирский государственный университет, 2014. — С. 123.
12. Марьин Д. Ф. Применение GPU в моделировании процессов молекулярной динамики // Материалы Международной школы-конференции для студентов, аспирантов и молодых ученых «Фундаментальная математика и ее приложения в естествознании». Т. 1. — Уфа : РИЦ БашГУ, 2011. — С. 72-76.
13. Моисеева Е. Ф., Марьин Д. Ф., Малышев В. Л., Гумеров H. А., Ахатов И. Ш. Исследование контактного угла и объема поверхностного нанопу-зырька методами молекулярной динамики // Математическое моделирование. - 2015. - Т. 27, № 4. - С. 115-126.
14. Норман Г. Э., Стегайлов В. В. Стохастическая теория метода классической молекулярной динамики // Математическое моделирование. — 2012. - Т. 24, № 6. - С. 3-44.
15. Ожгибесов М. С., Уткин А. В., Фомин В. М., Leu Т. 5., Cheng С. Н. Молекулярно-динамическое моделирование осаждения медных нанокла-стеров с применением графических процессоров // Вычислительная механика сплошных сред. — 2012. — Т. 5, № 3. — С. 265—273.
16. Уткин А. В., Ожгибесов М. С. Применение технологий CUDA и MPI к решению задач молекулярной динамики // Известия Алтайского государственного университета. — 2014. — С. 127—129.
17. Advances in Quantum Chemistry / ed. by J. Sabin, E. Brandas, S. Canuto. — Elsevier, 2010. — P. 423.
18. Ajmera P., Goradia R., Chandran S., Aluru S. Fast, parallel, GPU-based construction of space filling curves and octrees // 2008 symposium on Interactive 3D graphics and games. — New York, NY, USA : ACM, 2008. — P. 10.
19. Alder B. J., Wainwright T. E. Phase Transition for a Hard Sphere System //J. Chem. Phys. — 1957. — Vol. 27, no. 5. — P. 1208.
20. Allen M. P., Tildesley D. J. Computer simulation of liquids. — New York : Oxford, 1989. — P. 385.
21. Anderson J. A., Lorenz C. D., Travesset A. General purpose molecular dynamics simulations fully implemented on graphics processing units // Journal of Computational Physics. — 2008. — Vol. 227, no. 10. — Pp. 53425359.
22. Aragones J., Vega C. Plastic crystal phases of simple water models. // Journal of Chemical Physics. — 2009. — June. — Vol. 130, no. 24. — P. 244504.
23. Arnold A., Lenz O., Kesselheim S., Weeber R., Fahrenberger F., Roehm D., Kosovan P., Holm C. ESPResSo 3.1: Molecular Dynamics Software for Coarse-Grained Models // Meshfree methods for partial differential equations VI / ed. by M. Griebel, M. Schweitzer. — Springer, 2013. — Chap. 1. Pp. 1-24.
24. Axilrod B. M., Teller E. Interaction of the van der Waals type between three atoms // Journal of Chemical Physics. — 1943. — Vol. 11, no. 6. — Pp. 299-300.
25. Azizi N., Kuon /., Egier A., Darabiha A., Chow P. Reconfigurable Molecular Dynamics Simulator // 12th Annual IEEE Symposium on Field-Programmable Custom Computing Machines. — IEEE, 2004. — Pp. 197206.
26. Baidakov V., Chernykh G., Protsenko S. Effect of the cut-off radius of the intermolecular potential on phase equilibrium and surface tension in Lennard-Jones systems // Chemical Physics Letters. — 2000. — Vol. 321. — Pp. 315-320.
27. Barnes J., Hut P. A hierarchical O(NlogN) force-calculation algorithm. // Nature. — 1986. — Vol. 324. — Pp. 446-449.
28. Beaglehole D. Ellipsometric Study of the Surface of Simple Liquies // Phys-ica. — 1980. — Vol. 100B. — Pp. 163-174.
29. Bedorf J., Gaburov E., Zwart S. P. A sparse octree gravitational N-body code that runs entirely on the GPU processor // Journal of Computational Physics. — 2012. — Vol. 231, no. 7. — Pp. 2825-2839.
30. Berendsen H. J. C., Postma J. P. M., Gunsteren W. F. van, DiNola A., Haak J. R. Molecular-Dynamics with Coupling to an External Bath // Journal of Chemical Physics. — 1984. — Vol. 81, no. 8. — Pp. 3684-3690.
31. Bern M., Eppstein D., Teng S.-H. Parallel construction of quadtrees and quality triangulations // International Journal of Computational Geometry and Applications. — 1999. — Vol. 9, no. 6. — Pp. 517-532.
32. Brooks B. R., Brooks C. L., MacKerell A. D., Nilsson L., Petrella R. J., Roux B., Karplus M. CHARMM: the biomolecular simulation program // Journal of computational chemistry. — 2009. — Vol. 30, no. 10. — Pp. 1545-1614.
33. Brown W. M., Kohlmeyer A., Plimpton S. J., Tharrington A. N. Implementing molecular dynamics on hybrid high performance computers -Particle-particle particle-mesh // Computer Physics Communications. — 2012. — Vol. 183, no. 3. — Pp. 449-459.
34. Brown W. M., Wang P., Plimpton S. J., Tharrington A. N. Implementing molecular dynamics on hybrid high performance computers - short range forces // Computer Physics Communications. — 2011. — Vol. 182, no. 4. — Pp. 898-911.
35. Burtscher M., Pingali K. An Efficient CUD A Implementation of the Tree-Based Barnes Hut n-Body Algorithm // GPU Computing Gems / ed. by W.-M. W. Hwu. — Elsevier, 2011. — Chap. 6. Pp. 75-92.
36. Cheng H., Greengard L., Rokhlin V. A Fast Adaptive Multipole Algorithm in Three Dimensions // Journal of Computational Physics. — 1999. — Vol. 155, no. 2. — Pp. 468-498.
37. Cipra B. A. The Best of the 20th Century: Editors Name Top 10 Algorithms // SIAM News. — 2000. — Vol. 33, no. 4. — Pp. 20-21.
38. Cormen T. H., Leiserson C. E., Rivest R. L., Stein C. Bucket sort // Introduction to Algorithms, Second Edition. — MIT Press, McGraw-Hill, 2001. — Chap. 8.4. Pp. 174-177.
39. Cosden /., Lukes J. Effect of Cutoff Radius on the Surface Tension of Nanoscale Bubbles // Journal of Heat Transfer. — 2011. — Vol. 133, no. 10. — P. 8.
40. Darden T., York D., Pedersen L. Particle mesh Ewald: An Nlog(N) method for Ewald sums in large systems // The Journal of chemical physics. — 1993. — Vol. 98, no. 12. — Pp. 10089-10092.
41. Davis J. E., Ozsoy A., Patel S., Taufer M. Towards Large-Scale Molecular Dynamics Simulations on Graphics Processors // First International Conference, Bioinformatics and Computational Biology. Vol. 5462. — New Orleans, 2009. — Pp. 176-186.
42. Dettmann C. P., Morriss G. P. Hamiltonian formulation of the Gaussian isokinetic thermostat // Physical Review E. — 1996. — Vol. 54, no. 3. — Pp. 2495-2500.
43. Eastman P. [et al.] OpenMM 4: A Reusable, Extensible, Hardware Independent Library for High Performance Molecular Simulation //J. Chem. Theory Comput. — 2013. — Vol. 9, no. 1. — Pp. 461-469.
44. Eastwood J. W., Hockney R. W., Lawrence D. N. P3M3DP—The three-dimensional periodic particle-particle/particle-mesh program // Computer Physics Communications. — 1980. — Vol. 19, no. 2. — Pp. 215-261.
45. Epton M. A., Dembart B. Multipole Translation Theory for the Three-Dimensional Laplace and Helmholtz Equations // Journal of Scientific Computing. — 1995. — Vol. 16, no. 4. — Pp. 865-897.
t
46. Essmann U., Perera L., Berkowitz M. L., Barden T., Lee Pedersen L. G. A smooth particle mesh Ewald method // Journal of Chemical Physics. — 1995. — Vol. 103, no. 19. — Pp. 8577-8593.
47. Evans D. J., Morriss G. P. Statistical Mechanics of Nonequilibrium Liquids. — London : Academic Press Limited, 1990. — P. 341.
48. Ewald P. Die Berechnung optischer und elektrostatischer Gitterpotentiale // Annalen der Physik. — 1921. — Vol. 369, no. 3. — Pp. 253287.
49. Frenkel D., Smit B. Understanding molecular simulation: From algorithms to applications. — San Diego : Academic, 2002. — P. 658.
50. Friedrichs M. 5., Eastman P., Vaidyanathan V., Houston M., Legrand S., Beberg A. L., Pande V. S. Accelerating molecular dynamic simulation on graphics processing units // Journal of Computational Chemistry. — 2009. — Vol. 30, no. 6. — Pp. 864-872.
51. Gargantini I. An effective way to represent quadtrees // Communications of the ACM. — 1982. — Vol. 25, no. 12. — Pp. 905-910.
52. Germann T., Kadau K. Trillion-atom molecular dynamics becomes a reality // International Journal of Modern Physics C. — 2008. — Vol. 19, no. 9. — Pp. 1315-1319.
53. Gibson J., Goland A. N., Milgram M., Vineyard G. Dynamics of radiation damage // Physical Review. — 1960. — Vol. 120. — P. 1229.
54. GPGPU.org, http://gpgpu.org/.
55. Greengard L., Rokhlin V. A Fast Algorithm for Particle Simulations // Journal of Computational Physics. — 1987. — Vol. 72, no. 2. — Pp. 325348.
56. Guillot B. A reappraisal of what we have learnt during three decades of computer simulations on water // Journal of Molecular Liquids. — 2002. — Vol. 101, no. 1. — Pp. 219-260.
57. Gumerov N. A., Duraiswami R. Fast multipole methods for the Helmholtz equation in three dimensions. — Elsevier, 2005. — P. 426.
58. Gumerov N. A., Duraiswami R. A method to compute periodic sums // Journal of Computational Physics. — 2014. — Vol. 272. — Pp. 307-326.
59. Gumerov N. A., Duraiswami R. Comparison of the efficiency of translation operators used in the fast multipole method for the 3D Laplace equation: tech. rep. ; University of Maryland. — 2005. — P. 43. — UMIACS TR-2005-09.
60. Gumerov N. A., Duraiswami R. Fast multipole methods on graphics processors // Journal of Computational Physics. — 2008. — Vol. 227, no. 18. — Pp. 8290-8313.
61. Gumerov N. A., Duraiswami R., Borovikov E. A. Data Structures, Optimal Choice of Parameters, and Complexity Results for Generalized Multilevel Fast Multipole Methods in: tech. rep. ; University of Maryland. — 2003. — Pp. 1-91.
62. Haile J. Molecular dynamics simulation: elementary methods. — New York : John Wiley, Sons, 1992. — P. 506.
63. Hardy D. J., Stone J. E., Schulten K. Multilevel Summation of Electrostatic Potentials Using Graphics Processing Units. // Parallel Computing. — 2009. — Vol. 35, no. 3. — Pp. 164-177.
64. Harris M., Sengupta 5., Owens J. D. Parallel prefix sum (scan) with CUDA // GPU Gems 3 / ed. by H. Nguyen. — Addison-Wesley Professional, 2007. — Chap. 39. Pp. 851-876.
65. Harvey M. J., De Fabritiis G. An Implementation of the Smooth Particle Mesh Ewald Method on GPU Hardware // Journal of Chemical Theory and Computation. — 2009. — Vol. 5, no. 9. — Pp. 2371-2377.
66. Harvey M. J., Giupponi G., De Fabritiis G. ACEMD: Accelerating bio-molecular dynamics in the microsecond time-scale: tech. rep. — 2009. — Pp. 1-19.
67. Hess B., Kutzner C., Spoel D. van der, Lindahl E. GROMACS 4: Algorithms for highly efficient, load-balanced, and scalable molecular simulation // Journal of chemical theory and computation. — 2008. — Vol. 4, no. 3. — Pp. 435-447.
68. Hockney R., Eastwood J. Computer Simulation Using Particles. — New York : McGraw-Hill, 1981. — P. 540.
69. Hoover W. Canonical Dynamics: Equilibrium Phase-Space Distribution // Phys. Rev. A. — 1985. — Vol. 31, no. 3. — Pp. 1695-1697.
70. Hu Q., Gumerov N. A., Duraiswami R. Parallel Algorithms for Constructing Data Structures for Fast Multipole Methods: tech. rep. ; University of Maryland. — 2013. — P. 14. — No. 2.
71. Hu Q., Gumerov N. A., Duraiswami R. Scalable Distributed Fast Multipole Methods // 2012 IEEE 14th International Conference on High Performance Computing and Communication & 2012 IEEE 9th International Conference on Embedded Software and Systems. — Ieee, June 2012. — Pp. 270-279.
72. Hu Q., Gumerov N. A., Duraiswami R. Scalable fast multipole methods on distributed heterogeneous architectures // Proceedings of 2011 International Conference for High Performance Computing, Networking, Storage and Analysis on - SC '11. — New York, New York, USA : ACM Press, 2011. — P. 12.
73. Jorgensen W. L., Chandrasekhar J., Madura J. D., Impey R. W., Klein M. L. Comparison of simple potential functions for simulating liquid water // Journal of Chemical Physics. — 1983. — Vol. 79, no. 2. — P. 926.
74. Kinjo T.: Matsumoto M. Cavitation processes and negative pressure // Fluid Phase Equilibria. — 1998. — Vol. 144. — Pp. 343-350.
75. Koishi T., Yoo S., Yasuoka K., Zeng X. C., Narumi T., Susukita R., Ebisuzaki T. Nanoscale hydrophobic interaction and nanobubble nucle-ation // Physical Review Letters. — 2004. — Vol. 93, no. 18. — P. 185701.
76. Kuksin A. Y., Norman G. E., Pisarev V. V., Stegailov V. V., Yanilkin A. V. Theory and molecular dynamics modeling of spall fracture in liquids // Physical Review B - Condensed Matter and Materials Physics. — 2010. — Vol. 82, no. 17. — P. 10.
77. LAMMPS, http://lammps.sandia.gov.
78. Le Grand S., Gotz A. W., Walker R. C. SPFP: Speed without compromise-A mixed precision model for GPU accelerated molecular dynamics simulations // Computer Physics Communications. — 2013. — Vol. 184, no. 2. — Pp. 374-380.
79. Liu W., Schmidt B., Voss G., Muller-Wittig W. Accelerating molecular dynamics simulations using Graphics Processing Units with CUDA // Computer Physics Communications. — 2008. — Vol. 179, no. 9. — Pp. 634641.
80. Luty B. A., Davis M. E., Tironi I. G., Gunsteren W. F. van A comparison of particle-particle, particle-mesh and Ewald methods for calculating electrostatic interactions in periodic molecular systems // Molecular Simulation. — 1994. — Vol. 14, no. 1. — Pp. 11-20.
81. Matsumoto M., Tanaka K. Nano bubble - Size dependence of surface tension and inside pressure // Fluid Dynamics Research. — 2008. — Vol. 40. — Pp. 546-553.
82. Meel J. A. V., Arnold A., Frenkel D., Zwart S. F. P., Belleman R. G. Harvesting graphics power for MD simulations // Molecular Simulation. — 2008. — Vol. 34, no. 3. — Pp. 259-266.
83. Moiseeva E. F., Mikhaylenko C. /., Malyshev V. L., Maryin D. F., Gumerov N. A. FMM/GPU accelerated molecular dynamics simulation of phase transitions in water-nitrogen-metal systems // ASME 2012 International Mechanical Engineering Congress and Exposition. Vol. 7. — Houston : ASME, 2012. — Pp. 883-892.
84. Morariu V. /., Srinivasan B. V., Raykar V. C., Duraiswami R., Davis L. S. Automatic online tuning for fast Gaussian summation // Advances in Neural Information Processing Systems 21 / ed. by D. Koller, D. Schuurmans, Y. Bengio, L. Bottou. — Curran Associates, Inc., 2009. — Pp. 1113-1120.
85. Morton G. M. A computer oriented geodetic data base and a new technique in file sequencing: tech. rep. ; IBM Company. — Ottawa, Canada, 1966.
86. Norman G. E., Podlipchuk V. Y., Valuev A. A. Equations of motion and energy conservation in molecular dynamics // Molecular simulation. — 1993. — Vol. 9, no. 6. — Pp. 417-424.
87. Nose S. A molecular dynamics method for simulations in the canonical ensemble // Mol. Phys. — 1984. — Vol. 52. — Pp. 255-268.
88. Nose S. A Unified Formulation of the constant temperature molecular dynamics methods // Journal of Chemical Physics. — 1984. — Vol. 81. — Pp. 511-519.
89. Nose S. Constant temperature molecular dynamics methods // Prog. Theor. Phys. Suppl. — 1991. — Vol. 103. — Pp. 1-46.
90. Nvidia CUDA C Programming Guide, http://docs.nvidia.com/cuda/cuda-c-programming-guide / index, html.
91. Nyland L., Harris M., Prins J. Fast N-body simulation with CUDA // GPU Gems 3 / ed. by H. Nguyen. — Addison-Wesley Professional, 2007. — Chap. 31. Pp. 677-695.
92. OpenCL, http://www.khronos.org/opencl/.
93. Phillips J. C., Braun R., Wang W., Gumbart J., Tajkhorshid E., Villa E., Schulten K. Scalable molecular dynamics with NAMD // Journal of Computational Chemistry. — 2005. — Vol. 26, no. 16. — Pp. 1781-1802.
94. Phillips J., Stone J., Schulten K. Adapting a message-driven parallel application to GPU-accelerated clusters // 2008 SC - International Conference for High Performance Computing, Networking, Storage and Analysis. — IEEE, 2008. — P. 9.
95. Plimpton S. Fast Parallel Algorithms for Short-Range Molecular Dynamics // Journal of Computational Physics. — 1995. — Vol. 117, no. 1. — Pp. 1-42.
96. Proctor A. J., Stevens C. A., Cho S. S. GPU-Optimized Hybrid Neighbor/Cell List Algorithm for Coarse-Grained MD Simulations of Protein and RNA Folding and Assembly // Proceedings of the International Conference on Bioinformatics, Computational Biology and Biomedical Informatics. — 2013. — Pp. 633-641.
97. Protsenko S. P., Baidakov V. G., Teterin A. S., Zhdanov E. R. Computer simulation of nucleation in a gas-saturated liquid // Journal of Chemical Physics. — 2007. — Vol. 126, no. 9. — P. 14.
98. Rahman A. Correlations in the Motion of Atoms in Liquid Argon // Physical Review. — 1964. — Vol. 136, 2A. — Pp. 405-411.
99. Rajagopal G., Needs R. J. An optimized Ewald method for long-ranged potentials // Journal of Computational Physics. — 1994. — Vol. 115, no. 2. — Pp. 399-405.
100. Rapaport D. Enhanced molecular dynamics performance with a programmable graphics processor // Computer Physics Communications. — 2011. — Vol. 182, no. 4. — Pp. 926-934.
101. Rapaport D. Molecular Dynamics Simulation Using Quaternions // Journal of Computational Physics. — 1985. — Vol. 60. — Pp. 306-314.
102. Rapaport D. C. The art of molecular dynamics simulation. — Cambridge University Press, 2004. — P. 549.
103. Rodrigues C. /., Hardy D. J., Stone J. E., Schulten K., Hwu W.-M. W. GPU acceleration of cutoff pair potentials for molecular modeling applications // Proceedings of the 2008 conference on Computing frontiers - CF '08. — New York, New York, USA : ACM Press, 2008. — P. 273.
104. Salomon-Ferrer R., Goetz A., Poole D., Le Grand S., Walker R. Routine Microsecond Molecular Dynamics Simulations with AMBER on GPUs. 2. Explicit Solvent Particle Mesh Ewald //J. Chem. Theory Comput. — 2013. — Vol. 9. — Pp. 3878-3888.
105. Salomon-Ferrer R., Case D. A., Walker R. C. An overview of the Amber biomolecular simulation package // Wiley Interdisciplinary Reviews: Computational Molecular Science. — 2013. — Vol. 3, no. 2. — Pp. 198-210.
106. Sandak B. Multiscale fast summation of long-range charge and dipolar interactions // Journal of Computational Chemistry. — 2001. — Vol. 22, no. 7. — Pp. 717-731.
107. Sanders J., Kandrot E. CUDA by example: an introduction to generalpurpose GPU programming. — Addison-Wesley Professional, 2010. — P. 312.
108. Satish N., Harris M., Garland M. Designing Efficient Sorting Algorithms for Manycore GPUs: tech. rep. ; NVIDIA. — 2008. — P. 14. — NVR-2008-001.
109. Sengupta S., Harris M., Garland M. Efficient Parallel Scan Algorithms for GPUs: tech. rep. ; NVIDIA. — 2008. — P. 17. — NVR-2008-003.
110. Shaw D. E. [et al.] Anton, a special-purpose machine for molecular dynamics simulation // Communications of the ACM. — 2008. — Vol. 51, no. 7. — Pp. 91-97.
111. Shi B., Sinha S., Dhir V. K. Molecular simulation of the contact angle of water droplet on a platinum surface // 2005 ASME International Mechanical Engineering Congress and Exposition. — Orlando, 2005. — P. 5.
112. Skeel R. D., Tezcan /., Hardy D. J. Multiple grid methods for classical molecular dynamics. // Journal of Computational Chemistry. — 2002. — Vol. 23, no. 6. — Pp. 673-684.
113. Soper A., Phillips M. A New Determination of the Structure of Water at 25C // Chemical Physics. — 1986. — Vol. 107. — Pp. 47-60.
114. Spoel D. van der, Maaren P. J. van, Berendsen H. J. C. A systematic study of water models for molecular simulation: Derivation of water models optimized for use with a reaction field // Journal of Chemical Physics. — 1998. — Vol. 108, no. 24. — Pp. 10220-10230.
115. Stock M. J., Gharakhani A. Toward efficient GPU-accelerated N -body simulations // 46th AIAA Aerospace Sciences Meeting and Exhibit. — Reno, 2008. — P. 13.
116. Stone J. E., Hardy D. J., Ufimtsev I. S., Schulten K. GPU-accelerated molecular modeling coming of age. // Journal of Molecular Graphics & Modelling. — 2010. — Vol. 29. — Pp. 116-125.
117. Stone J. E., Phillips J. C., Freddolino P. L., Hardy D. J., Trabuco L. G., Schulten K. Accelerating molecular modeling applications with graphics processors // Journal of Computational Chemistry. — 2007. — Vol. 28, no. 16. — Pp. 2618-2640.
118. Swope W., Anderson H., Berens P., Wilson K. Computer Simulation Method for the Calculation of Equilibrium Constants for the Formation of Physical Cluster of Molecules: Application to Small Water Cluster // J. Chem. Phys. — 1982. — Vol. 76, no. 1. — Pp. 637-649.
119. Taiji M., Futatsugi N., Narumi T., Suenaga A., Ohno Y., Takada N., Kon-agaya A. Protein Explorer: A Petaflops Special-Purpose Computer System for Molecular Dynamics Simulations // 2003 ACM/IEEE conference on Supercomputing. — 2003. — P. 15.
120. Trott C. R., Winterfeld L., Crozier P. S. General-purpose molecular dynamics simulations on GPU-based clusters: tech. rep. — 2011. — P. 12.
121. Vega C., Abascal J. L. F., Conde M. M., Aragones J. L. What ice can teach us about water interactions: a critical comparison of the performance of different water models // The Royal Society of Chemistry, Faraday Discussions. — 2009. — Vol. 141. — Pp. 251-276.
122. Verlet L. Computer "experiments" on classical fluids. I. Thermodynamical properties of Lennard-Jones molecules // Phys. Rev. — 1967. — Vol. 159, no. 1. — Pp. 98-103.
123. Yang J., Wang Y., Chen Y. GPU accelerated molecular dynamics simulation of thermal conductivities // Journal of Computational Physics. — 2007. — Vol. 221, no. 2. — Pp. 799-804.
124. Yokota R., Barba L. A., Narumi T., Yasuoka K. Petascale turbulence simulation using a highly parallel fast multipole method on GPUs // Computer Physics Communications. — 2013. — Vol. 184, no. 3. — Pp. 445-455.
125. Yokota R., Barba L. A. TYeecode and Fast Multipole Method for N-Body Simulation with CUDA // GPU Computing Gems / ed. by W.-M. W. Hwu. — Emerald. — Elsevier, 2011. — Chap. 9. Pp. 113-132.
126. Yokota R., Bardhan J. P., Knepley M. G., Barba L. A., Hamada T. A fully parallel, high precision, N-body code running on hybrid computing platforms // Computer Physics Communications. — 2011. — Vol. 182, no. 6. — Pp. 1272-1283.
127. Zhu S.-B., Philpott M. R. Interaction of water with metal surfaces: tech. rep. ; IBM Research Div. — San Jose, CA, 1994. — P. 29.
Обратите внимание, представленные выше научные тексты размещены для ознакомления и получены посредством распознавания оригинальных текстов диссертаций (OCR). В связи с чем, в них могут содержаться ошибки, связанные с несовершенством алгоритмов распознавания. В PDF файлах диссертаций и авторефератов, которые мы доставляем, подобных ошибок нет.