Комплексное моделирование и оптимизация ускорительных систем на графическом процессоре (GPU) тема диссертации и автореферата по ВАК РФ 05.13.18, доктор физико-математических наук Перепёлкин, Евгений Евгеньевич
- Специальность ВАК РФ05.13.18
- Количество страниц 418
Оглавление диссертации доктор физико-математических наук Перепёлкин, Евгений Евгеньевич
СОДЕРЖАНИЕ
ВВЕДЕНИЕ
ГЛАВА 1 МЕТОД МАССИВНО ПАРАЛЛЕЛЬНОГО 80 ПРОГРАММИРОВАНИЯ НА ГРАФИЧЕСКИХ ПРОЦЕССОРАХ (GPU)
§1.1 Архитектура графических процессоров (GPU)
1.1.1 Введение: особенности GPU архитектуры
1.1.2 Архитектура GPU: Tesla 8, Tesla 10, Tesla 20 (Fermi)
§1.2 Программная модель CUDA
1.2.1 Введение: гибридная модель программного кода
1.2.2 Понятие потока, блока, сети блоков
1.2.3 Функция-ядро, как параллельный код на GPU
1.2.4 Особенности работы с различными типами памяти
1.2.5 Компиляция программы на CUDA
§1.3 Метод массивно-параллельного программирования на GPU в
задачах динамики пучка с использованием среды CUDA
1.3.1 Проблема оценки потерь пучка
1.3.2 Проблема учета эффекта пространственного заряда
1.3.3 Задача трассировки пучка
1.3.4 Расчет электромагнитных полей
ГЛАВА 2 МЕТОДЫ ОПТИМИЗАЦИИ ДИНАМИКИ ПУЧКА В 140 ЦИКЛОТРОНЕ
§2.1 Проблема поиска начальных условий для центрированной
траектории
§2.2 Оптимизация параметров инфлектора
§2.3 Оптимизация краевого поля инфлектора
§2.4 Оптимизация центральной области на основе метода «обратной
трассировки» пучка
ГЛАВА 3 АНАЛИЗ ЭФФЕКТА ПРОСТРАНСТВЕННОГО ЗАРЯДА
§3.1 Модельная DV - постановка задачи учета эффекта
пространственного заряда
3.1.1 Постановка задачи
3.1.2 Решение в системе центра масс
3.1.3 Построение решения
3.1.4 Задача однородно заряженного шара
§3.2 Численное решение DV - задачи
3.2.1 Порядок аппроксимации решения
3.2.2 Задача с первым порядком аппроксимации по времени
3.2.3 Задача со вторым порядком аппроксимации по времени
§3.3 pV - постановка задачи учета пространственного заряда
3.3.1 Постановка задачи
3.3.2 Построение решения
§3.4 Численное решение pV - задачи
3.4.1 Разностная схема
3.4.2 Пример численного решения модельной задачи
ГЛАВА 4 РАСЧЕТ ЭЛЕКТРОМАГНИТНЫХ ПОЛЕЙ В
УСКОРИТЕЛЬНЫХ УСТАНОВКАХ
§ 4.1 Оценка вклада поля магнитных элементов в секторе S12-14
установки ATLAS, CERN (Женева, Швейцария)
§ 4.2 Расчет электромагнитных полей в установке AVF RIKEN
циклотрон, RIKEN, Япония
4.2.1 Линия инжекции: соленоиды, банчер, инфлектор
4.2.2 Электрическое поле центральной области
§ 4.3 Магнитные системы установок ОИЯИ, Дубна, Россия
4.3.1 Спектрометрический магнит SP-40 (установка NIS)
4.3.2 воротный магнит SP-57 (установка MARUSYA)
ГЛАВА 5 АВТОМАТИЗАЦИЯ КОМПЛЕКСНОЙ ОПТИМИЗАЦИИ
ДИНАМИКИ ПУЧКА В ЦИКЛОТРОНЕ
§5.1 Программа CBDA
5.1.1 Структура программы
5.1.2 Тесты, примеры.
§5.2 Параллельная версия CBDA
5.2.1 Использование ОрепМР
5.2.2 Гибридный подход CPU+GPU на основе CUDA
ГЛАВА 6 ЧИСЛЕННОЕ МОДЕЛИРОВАНИЕ ДИНАМИКИ ПУЧКА
§6.1 RIKEN AVF циклотрон, RIKEN, Япония
§6.2 VIN С Y циклотрон, Белград, Сербия
§6.3 Таможенный циклотрон, Лос-Аламос, США
§6.4 Проект медицинского синхротрона ОИЯИ, Дубна, Россия
ЗАКЛЮЧЕНИЕ
ЛИТЕРАТУРА
Рекомендованный список диссертаций по специальности «Математическое моделирование, численные методы и комплексы программ», 05.13.18 шифр ВАК
Технология программирования алгоритмов молекулярно-динамического моделирования наносистем на графических процессорах2017 год, кандидат наук Семенов Сергей Александрович
Численное решение задач гидроаэромеханики на графических процессорах2013 год, кандидат наук Карпенко, Антон Геннадьевич
Численное моделирование задач газовой динамики на гибридных вычислительных системах2012 год, кандидат физико-математических наук Давыдов, Александр Александрович
Комплексное моделирование компактного циклотрона2012 год, кандидат физико-математических наук Смирнов, Виктор Леонидович
Методы глобального освещения для интерактивного синтеза изображений сложных сцен на графических процессорах2013 год, кандидат технических наук Боголепов, Денис Константинович
Введение диссертации (часть автореферата) на тему «Комплексное моделирование и оптимизация ускорительных систем на графическом процессоре (GPU)»
ВВЕДЕНИЕ
Современные научные исследования невозможно представить без использования вычислительной техники. Простейшей вычислительной машиной является персональный компьютер, обладающий одним центральным процессором. Вершиной является высокопроизводительные суперкомпьютерные кластеры, состоящие порой из десятков тысяч центральных процессоров.
Основной проблемой использования кластеров является большая потребляемая мощность и занимаемая ими обширная площадь, включающая в себя не только место для самого кластера, но и место для системы охлаждения. Поэтому в настоящее время широкое распространение стали получать гибридные вычислительные архитектуры. Например, на данный момент шестью самыми мощными суперкомпьютерами в мире являются [1]:
• Tianhe - 1 A, Tianjin National Supercomputing Center, Китай
• Jaguar, Oak Ridge National Lab, США
• Nebulae, National Supercomputing Center Shenzhen, Китай
• Tsubame 2.0, Tokyo Institute of Technology, Япония
• Hopper II, NRSC, США
• Тега 100, Essonne, Франция
ЭООО г В
Рис. 1 Производительность и потребляемая мощность шести самых мощных суперкомпьютеров в мире на 2011 год.
На графике левый сдвоенный столбик соответствует производительности суперкомпьютера, а правый - потребляемой мощности. На фотографии рис.1 показан общий вид суперкомпьютерного кластера.
Три из приведенных на рис.1 кластера: Tianhe - 1А, Nebulae, Tsubame 2.0, - имеют гибридную архитектуру. Гибридная архитектура включает в себя наряду с классическими центральными процессорами CPU (Central Processor Unit) современные графические процессоры GPU (Graphics Processor Unit), позволяющие производить массивно-параллельные вычисления.
Первоначально графический процессор (GPU) предназначался для работы с видеоизображением. Основной его функцией было преобразование графического образа, хранящегося в памяти компьютера, в форму, предназначенную для дальнейшего вывода на экран монитора. При этом основную часть вычислений связанных с подготовкой изображения к выводу на экран выполнял центральный процессор (CPU), после чего данные передавались на видеокарту, на которой и расположен графический процессор (GPU).
Однако, с развитием компьютерной графики, стало целесообразно разгрузить центральный процессор от «графических вычислений» и передать эту обязанность видеокарте. С этой целью на видеокарте появилось специальное вычислительное устройство (процессор), занимающееся «графическими вычислениями». Так появились первые графические ускорители.
Графические ускорители очень быстро эволюционировали в своем развитии. В результате они на многих простейших операциях стали существенно опережать центральный процессор (CPU). Такая высокая производительность достигалась благодаря умению графического ускорителя параллельно производить огромное число простейших операций. В какой то момент стало ясно, что видеокарте можно доверять вычисления не только
связанные с графикой, но и задачи чисто вычислительного характера. Так
появилось понятие графического процессора GPU (Graphics Processing Unit).
/
Понятие GPU впервые было введено компанией NVIDIA, как обозначение того факта, что графический ускоритель, первоначально используемый только для ускорения трехмерной графики, стал мощным программируемым устройством (процессором), позволяющим решать широкий круг задач не обязательно связанных с графикой.
Параллельные вычисления на GPU основываются на принципе, состоящем в переносе «центра тяжести» вычислений с центрального процессора CPU на графический процессор GPU. Изначально GPU процессоры были ориентированны на работу с графикой, что привело к большому числу ядер на кристалле. Ядра GPU имеют меньшую мощность, чем ядра CPU. Однако, количество ядер в одном GPU на порядки превышает количество ядер в CPU. Например, GPU NVIDIA Tesla С2070 имеет 512 ядер, в то время, как CPU Intel Xeon имеет 6 ядер.
Принцип, по которому работает CPU - это максимально быстро сделать одну операцию. Графический процессор идет от обратного, GPU пытается параллельно сделать максимально много операций, пусть даже каждая из них будет выполняться не так быстро, как на CPU. В этом и состоит основная разница между GPU и CPU.
Вследствие такой особенности и распределение памяти у CPU и GPU выглядит по-разному. На CPU существенную часть кристалла занимает память (cache), необходимая для обеспечения непрерывной работы ядер процессора, т.к. ядра работают намного быстрее, чем происходит доступ в глобальную память (RAM). На графическом процессоре, большую часть кристалла занимают именно вычислительные ядра. Поэтому основным искусством оптимизации программного кода на GPU является умение сбалансировать загрузку вычислительных ядер со временем обращения в память видеокарты.
За последние годы (2006-2011) графические процессоры компании NVIDIA очень быстро эволюционировали по пиковой производительности вычислений и по пиковой пропускной способности памяти (см.рис.2).
Рис. 2 Развитие GPU архитектуры
Такой рост сопровождался появлением новых архитектур GPU: Tesla 8, Tesla 10, Tesla 20 (Fermi).
Вычислительные модули Tesla делятся на две категории: Tesla С и Tesla S. Маркировка «С»-соответствует одной видеокарте (Card), которая содержит один GPU, маркировка «8»-означает серверный (Server) вариант, такой вычислительный модуль содержит 4 видеокарты, т.е. суммарно 4 графических процессора (GPU). На рис.3 показана модель Tesla С 1060 и Tesla S 1070.
Вычислительный модуль Tesla С устанавливается в обычный персональный компьютер в PCI-E разъем, a Tesla S предназначен для установки в серверную стойку, поэтому имеет форм фактор 1U.
Рис. 3 Вычислительные модули Tesla С1060 и Tesla SI070
Рассмотрим архитектуру GPU подробнее. На рис.4 приведена архитектура Tesla 10. Основным вычислителем на GPU является потоковый мультипроцессор (SM: Streaming Multi-processor). На Tesla 10 количество SM -30 штук. Мультипроцессоры (SM) объединены в блоки по три SM, которые называются ТРС (Texture Processor Cluster). Всего на Tesla 10-10 таких ТРС.
Каждый SM содержит: 8 скалярных ядер (SP), разделяемую память (shared memory), блок для работы с двойной точностью (DP: Double Precision), два блока для работы со специальными функциями (sin, cos, sqrt, 1/х и т.д.) (SFU: Special Function Unit), блок для работы с константной памятью (constant memory), регистровый файл (register file) и доступ к текстурным блокам (Texture unit). Вне SM есть доступ к глобальной памяти
Рис.4 Архитектура Tesla 10 (global memory), а также через PCI-E шину можно обращаться к памяти расположенной на материнской плате.
Архитектура Tesla 8 похожа на Tesla 10, но имеет ряд отличий:
• на SM отсутствует блок для работы с двойной точностью (DP);
• меньший размер регистрового файла (8 192 -32 битных регистров, вместо 16 384 на Tesla 10);
• в одном ТРС - 2 SM;
• количество ТРС - 8;
• отличия, связанные с СС (Compute Capability).
В результате, на Tesla 8 находится 8(SP)*2(SM)*8(TPC)=128 вычислительных ядер, а на Tesla 10 - 8(SP)*3(SM)*10(TPC)=240 вычислительных ядер.
Umt олпСяс Ги?
Рис.5 Архитектура Tesla 20 (Fermi)
На рис.5 показана архитектура Tesla 20 на базе GPU Fermi. Каждый SM содержит 32 вычислительных ядра. Группа из четырех SM образует GPC. Количество GPC - 4, что дает 16 мультипроцессоров SM. Общее количество вычислительных ядер на GPU (Fermi) - 32(SP)*4(SM)*4(GPC)=512. В отличие от Tesla 10 архитектура Tesla 20 имеет ряд отличий: • все вычислительные ядра работают с двойной точностью;
• имеется два планировщика вычислительных потоков (на предыдущей архитектуре Tesla 10 только один);
• добавлен новый кэш (LI cache) первого уровня LI ;
• размер разделяемой памяти (shared memory) вместе с LI кэшем (LI cache) может варьироваться (16/48 КБ);
• появилась возможность одновременного асинхронного копирования данных с GPU на CPU и CPU на GPU;
• есть встроенный планировщик запуска задач на GPU;
• увеличен размер регистрового файла (32 768 - 32 битных регистра вместо 16 384 на Tesla 10 и 8 192 на Tesla 8)
• имеется поддержка операции коррекции ошибок памяти (ЕСС: Error-Correcting Code);
• увеличен размер L2 кэша (L2 cache) до 768 КБ для доступа в глобальную память видеокарты (global memory);
• ~2 раза увеличена полоса пропускная памяти (GDDR5);
• адресное пространство памяти расширено до 1 ТВ;
• увеличен размер глобальной памяти (global memory) до 6 Гб (на Tesla 10-4 ГБ)
В 2012 году компанией NVIDIA планируется выпуск следующей архитектуры Kepler, а далее Maxwell.
Отметим, что на GPU количество одновременно работающих вычислительных потоков может существенно превышать количество вычислительных ядер.
Например, на Tesla С1060 количество вычислительных ядер 240, а для полной вычислительной загрузки ей требуется около 30 000 вычислительных потоков.
Такая ситуация возможна благодаря встроенному планировщику потоков (scheduler). Если какое то вычислительное ядро «простаивает» из-за ожидания данных из памяти для вычислительного потока с номером «i»,
10
планировщик может назначить данному вычислительному ядру обработку потока с номером «j». Такое перераспределение загрузки производится на «железном» уровне, упрощая работу программиста.
Для работы с GPU требуется специальный API (Application Programming Interface) от степени его проработки и удобства зависит перспективность использования GPU для высокопроизводительных вычислений.
На сегодняшний день на рынке существуют два основных производителя GPU: AMD и NVIDIA. Однако, только у NVIDIA на сегодняшний день имеются решения Tesla для высокопроизводительных кластерных систем.
В 2006 г. компанией NVIDIA была разработана программно-аппаратная модель CUD A (Compute Unified Device Architecture). Программно-аппаратный стек CUDA формально можно представить в виде таблицы, изображенной на рис.6
GPU Computing Applications - 1
Libraries and Middlewai
IS.PÏck C,,RA"D magma cuSPARSE ""дьмд
С++ С Fortran Java _. Python rD,rect, Wrappers Compute OpenCL
NVIDIA GPU 1 j CUDA Parallel Computing Architecture
Рис. 6 Архитектура CUD А.
На самом «нижнем» уровне находится сам процессор GPU с необходимой для его работы программой-драйвером. «Выше» идут различные среды программирования (С, С++, Fortran, Java, Direct Compute,
OpenCL и другие), с помощью которых можно писать приложения на GPU. Дальше идут готовые библиотеки (cuFFT, cuBLAS, cuRAND, cuSPARS и другие), которыми можно пользоваться в своих собственных программах, не вдаваясь в тонкости работы GPU. Последним уровнем являются собственные приложения, которые пишет пользователь, при этом не исключена возможность использования готовых библиотечных функций.
Программа, написанная под GPU, имеет гибридную структуру (см. рис.7), то есть она состоит как из последовательных блоков кода, выполняемых на центральном процессоре (CPU), так и из параллельных блоков кода, выполняемых на графическом процессоре (GPU). Вызов параллельных блоков производится «функцией-ядром» (kernel function).
Последовательный > код <
Параллельное ядро А KernelA«< nBlk, nTid >»(args);
Последовательный код
Параллельное ядро В KernelB«< nBlk, nTid >»(args);
Рис.7 Гибридная структура кода.
При программировании на GPU используются понятия «host» и «device». Идентификатором «host» отмечается все, что относится к х86 архитектуре: переменные, память, функции и т.д. Идентификатором «device» помечается все, что относится к GPU: переменные, память, функции, и т.д.
Параллельная часть программного кода выполняется на GPU по средствам огромного (порядка 30 ООО) количества вычислительных потоков/нитей (threads). Потоки группируются в блоки, как показано на рис.7. Блоки группируются в сеть блоков. Блоки выполняются независимо друг от друга. Нити (threads) внутри блока могут быть синхронизованы. Блок
целиком выполняется на одном потоковом мультипроцессоре SM (Streaming Multi-processor). На одном мультипроцессоре (SM) одновременно может выполняться несколько блоков.
В зависимости от мощности видеокарты на ней распложено разное число мультипроцессоров SM. При переносе программного кода с одной видеокарты «А» (малой вычислительной мощности, малым число SM) на другою «В» (большей вычислительной мощности, большим числом SM) нет необходимости в принципиальном переписывании программного кода (см.рис.8).
Устройство А
SM SM
1,------ч Блок ЛИ
\\ri /г J
Блок Блок
швШШЯШШШШШШ
.т Т 1|
Сетка блоков
Похожие диссертационные работы по специальности «Математическое моделирование, численные методы и комплексы программ», 05.13.18 шифр ВАК
Высокопроизводительные сопроцессоры для параллельной обработки данных в формате с плавающей точкой в системах цифровой обработки сигналов2013 год, кандидат технических наук Пантелеев, Алексей Юрьевич
Математическое моделирование движения ионов в масс-спектрометрах2009 год, кандидат физико-математических наук Позднеев, Александр Валерьевич
Разработка и оптимизация циклотронов для медицинских применений2013 год, доктор физико-математических наук Карамышева, Галина Анатольевна
Параллельные технологии математического моделирования турбулентных течений на современных суперкомпьютерах2015 год, доктор наук Горобец Андрей Владимирович
Анализ, формирование и реконструкция магнитного поля в электрофизических устройствах на основе методов математического моделирования2005 год, доктор физико-математических наук Ламзин, Евгений Анатольевич
Заключение диссертации по теме «Математическое моделирование, численные методы и комплексы программ», Перепёлкин, Евгений Евгеньевич
Основные результаты, полученные в диссертации:
1. Предложен новый подход к описанию физических процессов в циклотроне, базирующийся на сформулированном методе массивно-параллельной архитектуры графических процессоров (GPU) в комплексной оптимизации динамики пучка циклотрона.
2. Реализован качественно новый уровень моделирования физических процессов в ускорителе на базе предложенного метода массивно-параллельной архитектуры графических процессоров (GPU), что позволило увеличить на два порядка скорость вычислений.
3. Предложен новый триангуляционный подход по оценке потерь пучка на структурных элементах установки.
4. Разработаны новые параллельные алгоритмы на графических процессорах (GPU) для моделирования динамики пучка: алгоритм трассировки частиц пучка, алгоритм оценки потерь (триангуляционный подход), алгоритм учета эффекта пространственного заряда.
5. Предложен новый метод комплексной оптимизации динамики пучка циклотрона, включающий решение задач:
• поиск начальных условий для центрированной траектории пучка в циклотроне
• оптимизация параметров инфлектора
• оценка влияния краевого поля инфлектора на динамику пучка
• оптимизация центральных ускоряющих электродов циклотрона на основе построения базы данных трехмерных электрических карт полей ускоряющих зазоров
• оценка потерь частиц пучка на структурных элементах установки на основе предложенного триангуляционного подхода.
6. Предложена новая модель гидродинамического подхода для решения проблемы учета эффекта пространственного заряда для сферически симметричных распределений плотности заряда. Получен вид решения сформулированной модельной начально-краевой задачи относительно вектора электрического поля D и v - векторного поля скоростей заряженной среды.
7. Найдено точное решение модельной начально-краевой задачи об эволюции функции плотности заряда однородно заряженного шара.
8. Предложен численный алгоритм решения модельной начально-краевой задачи. Получены схемы с разным порядком аппроксимации.
9. Предложена новая модель гидродинамического подхода для решения проблемы оценки эффекта пространственного заряда для произвольного распределения функции плотности заряда. Предложена постановка новой модельной начально-краевой задачи относительно функции плотности заряда р и v - векторного поля скоростей заряженной среды. Получен вид решения и рассмотрены его свойства.
10.Предложен численный алгоритм решения модельной начально-краевой задачи для функций р и v. Исследованы условия устойчивости схемы. Получены схемы с разным порядком аппроксимации.
11.Найдено распределение магнитного поля в секторе 12-14 детектора ATLAS, LHC, CERN, Женева. Дана оценка вклада магнитного поля от магнитных элементов сектора 12-14 в интеграл по траектории.
12.Найдено распределение электромагнитных полей линии инжекции A VF RIKEN циклотрона (RIKEN, Япония), необходимое для моделирования процесса инжекции и процесса ускорения в центральной области установки.
13. Найдено распределение магнитных полей спектрометрических магнитов для экспериментов NIS и MARUSYA (ЛФВЭ, ОИЯИ, Дубна).
14.В рамках комплексной оптимизации динамики пучка в циклотроне создана программа CBDA (Cyclotron Beam Dynamics Analysis). Программа CBDA обладает следующими характеристиками:
• реализация предложенного в работе метода массивно-параллельных вычислений на GPU в комплексной оптимизации динамики пучка в циклотроне, дающего ускорение вычислений на два порядка;
• моделирование основных узлов циклотрона (линия инжекции, инфлектор, ускорительная область циклотрона, дефлектор), как по отдельности, так и в комплексе;
• работа с высоко-реалистичными трехмерными электромагнитными полями;
• использование предложенного в работе триангуляционного подхода в оценке потерь пучка, на реальной трехмерной геометрии установки, дающей высокую степень реалистичности;
• учет эффекта пространственного заряда пучка методом «крупных частиц» (PIC: Particle In Cell/PP: Particle to Particle);
• использование, предложенного в работе оптимизационного алгоритма построения трехмерной геометрии центральных ускоряющих электродов на основе использования базы данных электрических полей различных конфигураций ускоряющих зазоров;
• «дружественный» интерфейс, позволяющий легко стыковаться с программами по инженерному дизайну установки, такими как AutoCAD и SolidEdge, а так же с программами по расчету электромагнитных полей TOSCA и обработке данных моделирования MathCAD, а так же подробная документация;
• произведен ряд сравнительных тестовых расчетов динамики пучка, давший хорошее совпадение с известными программами.
15.Получена и реализована на практике оптимальная геометрия центральных ускоряющих электродов AVF RIKEN циклотрона
RIKEN, Япония) для режима второй гармоники.
16.Найдена оптимальная геометрия центральных ускоряющих электродов для циклотрона VINCY (Белград, Сербия)
17.Проведена оптимизация потерь и качества пучка «Таможенного циклотрона», предназначенного для обнаружения взрывчатых веществ на таможне (Лос-Аламос, США).
18.Получены параметры линии инжекции пучка углерода в медицинский синхротрон (ЛФВЭ, ОИЯИ, Дубна) с током от 0 до 100 мА.
ЗАКЛЮЧЕНИЕ
Список литературы диссертационного исследования доктор физико-математических наук Перепёлкин, Евгений Евгеньевич, 2013 год
ЛИТЕРАТУРА
1. http://www.nvidia.com, официальный сайт компании NVIDIA
2. Th. Kwan. Disscussion on 'Recent developments with currently deployed and next generation bulk detection system, including CT, XRD, neutron-based detection, and image and density analysis. Application in cargo and checked baggage screening, and other new R&D areas were highlighted. 2005 GRC on Detection Illicit Substance: Explosives & Drugs. August 28 -September 2, 2005. Les Diablerets Conference Center, Les Diablerets, Switzerland.
3. D.Guillemand Mueller, 'Strategic plan for nuclear physics research in Europe', XXXIV European Cyclotron Progress Meeting (ECPM 2005), October 6-8, 2005.
4. Y. Yano, Nucl. Instr. Meth. В 261 (2007) 1009.
5. О. Kamigaito et al., Rev. Sci. Instr. 76 (2005) 0133061-1.
6. O. Kamigaito et al., Rev. Sci. Instr. 70 (1999) 4523.
7. K. Morita et al., J. Phys. Soc. Jpn. 73 (2004) 2593.
8. T. Kubo et al., Nucl. Instr. Meth. В 70 (1992) 309.
9. H. Sakurai et al., Phys. Lett. В 448 (1999) 180.
10.Y. Yanagisawa, et al., Nucl. Instr .Meth. A 539 (2005) 74. 11.1. Tanihata et al., Phys. Rev. Lett. 55 (1985) 2676.
12. T. Suzuki et al., Phys. Rev. Lett. 75 (1995) 3241.
13. T. Motobayashi et al., Phys. Lett. В 346 (1995) 9.
14. N. Imai et al., Phys. Rev. Lett. 92 (2004) 062501.
15. H.J. Ong et al., Phys. Rev. С 73 (2006) 024610.
16. Z. Elekes et al., Phys. Lett. В 686 (2004) 34.
17. H. Ueno et al., Nucl. Phys. A 738, 211 (2004).
18. T. Motobayashi, Nucl.Phys. A 693 (2001) 258.
19. T. Nakamura et al., Phys.Rev. Lett. 96 (2006) 252502.
20. T. Kubo et al., IEEE Trans. Appl.Superconductivity 17 (2007) 1069.
21.K. Suemmerer and B. Blank, Phys.Rev. С 61 (2000) 034607.
22. Т. Uesaka et al., CNS Annual Report 2004 (2005) 42.
23. M. Wada et al., Nucl. Instr. and Meth. A 532 (2004) 40.
24. Y. Sasamoto et al., CNS Annual Report 2004 (2005) 85.
25. M. Wakasugi et al., Nucl. Instr. And Meth. A 532 (2004) 216.
26. Y. Yamaguchi et al., CNS Annual Report 2004 (2005) 83.
27. O. Kamigaito et al., RIKEN Accel. Prog. Rep. 39 (2005) 261.
28.Белоцерковский О. M., Давыдов Ю. М., Метод крупных частиц в газовой динамике, М., 1982; [2] Дьяченко В. Ф., лЖ. вычисл. матем. и матсм. физ.
29.Марчук Г. И., Методы вычислительной математики, Новосиб., 1973;
30.Белоцерковский О. М., Давыдов Ю. М., Исследование схем метода "крупных частиц" с помощью дифференциальных приближений, в кн.: Проблемы прикладной математики и механики, М., 1971, с. 145-55.
31.Григорьев Ю.Н., Вшивков В.А. Численные методы «частиц-в-ячейках» Новосибирск: Наука. Сибирская издательская фирма РАН, 2000.- 184 с.
32.Харлоу Ф. Численный метод частиц в ячейках для задач гидродинамики // Вычислительные методы в гидродинамике. М.: Мир. 1967.-С. 316-342.
33.Evans M.W., Harlow F.H. The patricle-in-cell method for hydrodynamic calculations. Los-Alamos. Lab. Rept. № LA-2139. 1957. - pp.
34.T. P. Wangler, K. R. Crandall, R. Ryne, and T. S. Wang, Phys. Rev. ST Accel. Beams 1, 084201 (1998).
35.S. M. Lund and R. C. Davidson, Phys. Plasmas 5, 3028 (1998).
36.S. Bernal, R. A. Kishek, M. Reiser, and I. Haber, Phys. Rev. Lett. 82, 4002
(1999)
37.S. Bernal, B. Quinn, P. G. O'Shea, and M. Reiser, Phys. Rev. ST Accel. Beams 5, 064202 (2002).
38.R. A. Kishek, P. G. O'Shea, and M. Reiser, Phys. Rev. Lett. 85, 4514
(2000).
39.T. Antonsen, Fan, E. Ott, and Garcia-Lopez, Phys. Fluids 8, 3094 (1996).
40.Белоцерковский O.M. Численное моделирование в механике сплошных сред. М.: Наука, 1984. - 520 с.
41.Белоцерковский О.М., Давыдов Ю.М. Исследование схем метода «крупных частиц» с помощью дифференциальных приближений. В сб.: Проблемы прикл. матем. и механ. -М.: Наука, 1971. - С. 145-155.
42.Белоцерковский О.М., Давыдов Ю.М. Метод «крупных частиц» (схемы и приложения).МФТИ, М., 1978. 124 с.
43.Белоцерковский О.М., Давыдов Ю.М. Метод «крупных частиц» в газовой динамике. М.: Наука, 1982. - 391 с.
44.Белоцерковский О.М., Давыдов Ю.М. Нестационарный метод «крупных частиц» для газодинамических расчетов // Ж. вычисл. матем. и матем. физ., 1971, т. 11, № 1. С. 182-207.
45.Белоцерковский О.М., Давыдов Ю.М. Расчет методом «крупных частиц» трансзвуковых«закритических» режимов обтекания // Ж. вычисл. матем. и матем. физ., 1973, т. 13, № 1.-С. 147-171.
46.
47.Шахов В.Г., Лагно О.Г. Применение метода "крупных частиц" для расчета обтекания биконической компоновки обтекателя // Самолетостроение России: проблемы и перспективы. Тезисы докл. II Всерос. конференции: Самара. 2000. С. 71-72.
48.Лагно О.Г., Шахов В.Г. Расчет обтекания осесимметричного тела вращения под малым углом атаки методом крупных частиц. Деп. в ВИНИТИ, № 1676-В2001, 16 с.
49.Лагно О.Г. Вычислительный пакет решения методом крупных частиц двухмерных задач аэродинамики // Сборник трудов X Всероссийского научно-технического семинара по управлению движением и навигации летательных аппаратов, Самара. 2002. С. 294-298.
50.Лагно О.Г. Исследование методом крупных частиц обтекания осесимметричных тел при малых углах атаки // Сборник трудов X Всероссийского научно-технического семинара по управлению движением и навигации летательных аппаратов, Самара. 2002. С. 288293.
51.Лагно О.Г. Применение метода «крупных частиц» для расчета обтекания компоновки головного обтекателя под малым углом атаки
52.P. Degond and Р.-А. Raviart, On the paraxial approximation of the stationary Vlasov-Maxwell system Math. Models Meth. Appl. Sciences 3 (1993), 513-562.
53.H. Federer, Geometric measure theory Springer-Verlag, Berlin (1969).
54.F. Filbet; E. Sonnendr'ucker and P. Bertrand, A Positive and Flux Conservative scheme for the numerical resolution of the Vlasov equation J. Comput. Phys. 172 (2001), 166-187.
55.F. Filbet, J.-L. Lemaire, E. Sonnendr'ucker, Direct axisymmetric Vlasov simulations of space charge dominated beams. Lecture Notes in Comput. Sci., 2331, Springer, Berlin, Computational science—ICCS 2002, Part III (Amsterdam), (2002), pp. 305-314.
56.F. Filbet and E. Sonnendr'ucker, Comparison of Eulerian Vlasov Solvers. Com-puter Physics Communications. 150 (2003), 247-266.
57.M. Kapchinsky; V. V. Vladimrsky, Proceedings of the 9th international conference on high energy accelerators. Edited by L. Kowarski (CERN, Geneva) (1959), 274-.
58.P. M. Lapostolle, IEEE Trans. Nucl. Sci. 18 (1971), 1101-1104.
59.G. Laval; S. Mas-Gallic and P.-A. Raviart, Paraxial approximation of ultrarelativistic intense beams. Numer. Math. 1 (1994), 33-60.
60.Nouri, Paraxial approximation of the Vlasov-Maxwell system: laminar beams. Math. Models Methods Appl. Sci. 4 (1994), pp. 203-221.
61.F. Poupaud and M. Rascle, Measure solutions to the linear multidimensional transport equation with non-smooth coefficients. Comm. Partial Differential Equations 22 (1997), no. 1-2, 337-358.
62.P.-A. Raviart, Paraxial approximation of the stationary Vlasov-Maxwell equations. Nonlinear partial differential equations and their applications. Со1Гege de France Seminar, Vol. XII (Paris) (1991-1993), 158-171, Pitman Res. Notes Math. Ser., Longman Sci. Tech., Harlow 302 (1994).
63.M. Reiser, Theory and Design of Charged-Particle Beams. Wiley, New York, (1994)).
64.F. J. Sacherer, IEEE Trans. Nucl. Sei. 18 (1971), 1105-1109.
65.Principles of ionization chamber operation under intense ionization rates. C.Velissaris, NUMI-717
66.Nuclear Radiation Detectors. J.Sharpe, John Wiley and Sons.
67.Space charge in ionization detectors and the NA48 electromagnetic calorimeter. S.Palestini et. al. NIM A421 (1999) 75-89
68.Novokhatski, T. Weiland, PAC'99, New York, March 1999
69.M. Krassilnkov et al., ICAP 2000, Darmstadt, September 2000
70.M. Krassilnikov, T. Weiland, ICAP'02, East Lansing, USA, October 2002
71.M. Comunian et al. Phys.Rev. Spec.Topics- Acc. and Beams, V.4,124201 (2001)
72.I.M. Kapchinskiy "Theory of Resonance Linear Acceler.", Harw.Ac.Pub., 1985.
73.W.J. Sternberg, T.L. Smith, "The Theory of Potential and Spherical Harmonics",Harmonics, University of Toronto Press, 1952.
74.H. Wiedemann, "Particle accelerator physics:Basic principles and linear beam
75.dynamics", Berlin Springer, 1993
76.DESY, Hamburg, Germany, tesla.desy.de. DESY-TTF.
77.M. Fenn and G. Steidl. Fast NFFT based summation of radial functions. Sampling Theory in Signal and Image Processing, 3:1 - 28, 2004.
78.L. Greengard. The Rapid Evaluation of Potential Fields in Particle Systems. MIT Press,Cambridge, 1988.
79.L. Greengard and V. Rokhlin. A fast algorithm for particle simulations. J. Comput. Phys.,73:325 - 348, 1987.
80.R. Hockney and J. Eastwood. Computer Simulation Using Particles. Institut of Physics Publishing, Bristol, 1992.
81.S. Kunis and D. Potts. NFFT, Softwarepackage, C subroutine library.
82.http://www.math.uni-luebeck.de/potts/nfft, 2002 - 2004.
83.G. P'oplau, U. van Rienen, S. van der Geer, and M. de Loos. Fast calculation of space charge in beam line tracking by multigrid techniques. In Proceedings of the 4th Conference on Scientific Computing in Electrical Engineering (SCEE-2002), Mathematics in Industry. Springer-Verlag, to appear.
84.G. P'oplau, U. van Rienen, S. van der Geer, and M. de Loos. Multigrid algorithms for the fast calculation of space-charge effects in accelerator design. IEEE Transactions on Magnetics, to appear 2004.
85.D. Potts and G. Steidl. Fast summation at nonequispaced knots by NFFTs. SIAM J. Sci.Comput., 24:2013 - 2037, 2003.
86.D. Potts, G. Steidl, and A. Nieslony. Fast convolution with radial kernels at nonequispaced knots. Numer. Math., 98:329 - 351, 2004.
87.D. Potts, G. Steidl, and M. Tasche. Fast Fourier transforms for nonequispaced data: A tutorial. In J. J. Benedetto and P. J. S. G. Ferreira, editors, Modern Sampling Theory: Mathematics and Applications, pages 247 -270, Boston, 2001. Birkh'auser.
88.Pulsar Physics, De Bongerd 23, 3762 XA Soest, The Netherlands, www.pulsar.nl/
89.gpt. General Particle Tracer (GPT), release 2.60 edition.
90.G. Steidl. A note on fast Fourier transforms for nonequispaced grids. Adv. Comput. Math.,9:337 - 353, 1998.
91.S. van der Geer and M. de Loos. The General Particle Tracer Code. Design, implementation and application. PhD thesis, TU Eindhoven, 2001.
92.L. Ying, G. Biros, and D. Zorin. A kernel-independent adaptive fast multipole method in two and three dimensions. J. Comput. Pysics, to appear.
93.D. Potts, G. Steidl, and M. Tasche, "Fast Fourier transforms for nonequispaced data: A tutorial," in Modern Sampling Theory: Mathematics and Applications, J. J. Benedetto and P. J. S. G. Ferreira, eds., pp. 247 - 270, Birkh'auser, (Boston), 2001.
94.G. P'oplau, "Fast direct solvers for PDE's in shift-inariant periodic spaces," in Approximation Theory VIII, C. Chui and L. Schumaker, eds., pp. 325 -333,World Scientific Publishing, Inc., (Singapore), 1995.
95.S. Kunis and D. Potts, "NFFT, Softwarepackage, C subroutine library." http://www.math.uni-luebeck.de/potts/nfft, 2002.
96.G. P'oplau and U. van Rienen, "Multigrid Algorithms for the Tracking of Electron Beams", in Multigrid Methods VI, (E. Dick, K. Riemslagh, J. Vierendeels, eds.), LNSCE, 14, Springer, 2000, 214 - 220.
97.G. P'oplau, U. van Rienen, M.J. de Loos, and S.B. van der Geer, "Fast Calculation of Space Charge in Beam Line Tracking by Multigrid Techniques", in: Mathematics in Industry (Proc. of the 4th Conf. on Scientific Computing in Electrical Engineering (SCEE-2002)), Springer, Berlin, to appear.
98.W. Hackbusch, Multi-Grid Methods and Applications. Springer, Berlin, 1985.
99.W. R. Madych and S. A. Nelson, "Polyharmonic cardinal splines," J. Approx. Theory 60, pp. 141 - 161, 1990.
100. G. P'oplau, "Fast solvers for elliptic PDE's with radial basis functions," University Rostock, Preprint 96/10 , 1996.
101. E. J. Kansa, "Multiquadrics- a scattered data approximation scheme with applications to computational fluid dynamics: I. surface approximations and partial derivative estimates," Comput. Math. Appl. 19, pp. 127 - 145, 1990.
102. E. J. Kansa, "Multiquadrics - a scattered data approximation scheme with applications to computational fluid dynamics: II. solutions to parabolic, hyperbolic, and elliptic partial differential equations," Comput. Math. Appl. 19, pp. 147-161, 1990.
103. C. C. Paige and M. A. Saunders, "LSQR: An algorithm for sparse linear equations and sparse least squares," ACM Transactions on Mathematical Software 8, pp. 43 - 71, 1982.
104. Y. Saad, Iterative Methods for Sparse Linear Systems, PWS Publ., Boston, 1996.
105. M. Hanke, Conjugate gradient type method for ill-posed problems, Wiley, New York, 1995.
106. T. Weiland, "Eine Methode zur L'osung der Maxwellschen Gleichungen fur sechskomponentige Felder auf disketer Basis", AE"U 31, pp. 116-120, 1977.
107. W.L. Briggs, Van Emden Henson, and S. McCormick, A Multigrid Tutorial. 2nd edition. SIAM, Philadelphia, 2000.
108. G. P'oplau and U. van Rienen, "Multigrid Solvers for Poisson's Equation in Computational Electromagnetics", in: Scientific Computing in Electrical Engineering (U. van Rienen, M. G'unther, D. Hecht, eds.), LNCSE 18, Springer-Verlag, Berlin, 169 - 176, 2001.
109. G. P'oplau, U. van Rienen, M.J. de Loos, and S.B. van der Geer, "Multigrid Algorithms for the Fast Calculation of Space-Charge Effects in Accelerator Design", submitted, 2003.
110. G. P 'oplau, U. van Rienen, M.J. de Loos, and S.B. van der Geer, "A Fast 3D Multigrid Based Space-Charge Routine in the GPT Code", Proceedings of EPAC 2002 (Paris), pp. 1658 - 1668, 2002.
111. G. P'oplau, U. van Rienen, M.J. de Loos, and S.B. van der Geer, "A multigrid based 3D space-charge routine in the tracking code GPT". TESLA-Report 2003-03, DESY, Hamburg (tesla.desy.de/new_pages/TESLA/TTFnot03 .html), 2003.
112. Yuri K. Batygin, Self-consistent analysis of three dimensional uniformly charged ellipsoid with zero emittance, SLAC-PUB-8832, 17 May 2001
113. Chao, Physics of Collective Beam Instabilities in High Energy Accelerators, (John Wiley & Sons, Inc., New York, 1993).
114. F. Zimmermann, Proceedings Accelerator Physics at the Superconducting Super Collider, Dallas, TX, 1992-1993, edited by Y. Yan, et al., p. 98.
115. N.S. Dikansky and D.V. Pestrikov, The Physics of Intense Beams and Storage Rings, (AIP Press, New York, 1994).
116. R. Baartman, Proceedings International Workshop on Particle Dynamics in Accelerators: Emittance in Circular Accelerators, Tsukuba, Japan, 1994, edited by S. Machida and K. Hirata, (KEK, Tsukuba, Japan, 1995), p. 273.
117. R.C. Davidson, Physics of Non-Neutral Plasmas, (Addison-Wesley Publishing, Reading, 1990), Chap. 10.
118. L. Schachinger and R. Talman, Particle Accelerator 22, 35 (1987).
119. S. Machida, Proceedings Computational Accelerator Physics Conference, Pleasanton, CA, 1993, edited by R. Ryne, (AIP-297, 1993).
120. T. Tajima, Computational Plasma Physics: With Applications to Fusion and Astrophysics (Addison-Wesley Publishing, Reading, 1989), p. 78.
121. C. Chen and R.A. Jameson, Phys. Rev. D 52, 3074 (1995).
122. S. Machida, \Space Charge Erects in Low Energy Proton Synchrotrons," Ph D. Thesis, University of Tokyo, May 1990.
123. L.J. Laslett, Proceedings Summer Study on Storage Rings, Brookhaven National Laboratory, 1963. (BNL-7534, 1963), p. 324.
124. E.D. Courant and H.S. Snyder, Ann. Phys. 3, 1 (1958).
125. J. K. Koga and T. Tajima, J. Comput. Phys. 116, 314 (1995).
126. Briggs W.L., van Emden H. and Mc.Cormick S. 2000 A. Multigrid Tutorial. 2nd edition (SIAM, Philadelphia) General Particle Tracer (GPT), release 2.60, Pulsar Physics, De Bongerd 23, Soest, The Netherlands Hackbusch W. 1985 Multi-Grid Methods and Applications (Springer, Berlin)
127. Jung M. and Langer U. 1991, Applications of multilevel methods to practical problems Surv. Math. Ind. 1 217-257
128. Jung M, Langer U, Meyer A, Queck W. and Schneider M. 1989, Multigrid preconditioners and their applications. Proc. of the 3rd GDR Multigrid Seminar (Biesenthal) 11-52
129. P'oplau G, van Rienen U, Staats J andWeiland T 2000, Fast Algorithms for the Tracking of Electron Beams Proc. of EPAC 2000 (Vienna) 1387-1389
130. P'oplau G, van Rienen U 2002, Multigrid Solvers for Poisson's Equation in Computational Electromagnetics Proc. of the 3rd Conf. on Scientific Computating in Electrical Engineering (SCEE-2000) U van Rienen, D Hecht and M Gunther, eds, LNSCE 18, (Springer, Berlin) 169176
131. P'oplau G, van Rienen U, de Loos M J and van der Geer S. B., A Fast 3D Multigrid Based Space-Charge Routine in the GPT Code Proceedings of EPAC 2002 (Paris) 1658-1668
132. P'oplau G, van Rienen U, de Loos M J and van der Geer S. B., Fast Calculation of Space Charge in Beam Line Tracking by Multigrid Techniques submitted to the Proc. of the 4th Conf. on Scientific Computating in Electrical Engineering, SCEE-2002 (Eindhoven)
133. Staats J, Weiland T, Kostial S. and Richter A. 1999, Tracking of Electron Beams with Numerically Determined Space Charge Forces Proc. of the 1999 Particle Accelerator Conf. PAC'99 (New York) 2740-2742
134. Van der Geer S B and de Loos M J 2001 The General Particle Tracer Code. Design, implementation and application PhD thesis
135. Daubechies, "Ten Lectures on Wavelets", SIAM, Philadelphia, 1992.
136. S.B. van der Geer, M.J. de Loos, O.J. Luiten, G. P'oplau, U. van Rienen, "3D Space-Charge Model for GPT Simulations of High-Brightness Electron Bunches", TESLA-Report 2003-04, DESY, 2003.
137. G. P'oplau, U. van Rienen, S.B. van der Geer, M.J. de Loos, "A Fast 3D Multigrid Based Space-Charge Routine in the GPT Code", Proceedings of EPAC 2002 (Paris), pp. 1658-1660 (2002).
138. G. P'oplau, U. van Rienen, S.B. van der Geer, M.J. de Loos, "Multigrid Algorithms for the Fast Calculation of Space-Charge Effects in Accelerator Design", IEEE Transactions on Magnetics, 40(2), pp. 714-717 (2004).
139. M.J. van der Wiel, Conf. Proc. 2nd ICFA Future Accelerator Workshop on "The Physics of High-Brightness Beams", Los Angeles (1999).
140. U. Cartel, "Parallel Multigrid Solver for 3D Anisotropic Elliptic Problems", Arbeitspapiere der GMD 390, St. Augustin, 1999.
141. W. Hackbusch, "Multi-Grid Methods and Applications", SpringerVerlag, Berlin, 1985.
142. R.W. Hockney, "Computer Simulation using Particles", Institute of Physics Publishing, Bristol and Philadelphia, 1994.
143. G. P'oplau, U. van Rienen, "Multigrid Algorithms for the Tracking of Electron Beams", to appear in Multigrid Methods VI, (E. Dick, K. Riemslagh, J. Vierendeels, eds.), LNSCE, Vol. 14, Springer, 2000.
144. W.H. Press, B.P. Flannery, S.A. Teukolsky and W.T. Vetterling, "Numerical Recipes in C. The Art of Scientific Computing", Cambridge University Press, 2nd edition, 1992.
145. M. Reiser, "Theory and Design of Charged Particle Beams", John Wiley & Sons, Inc., New York, 1994.
146. J. Rüge, K. St'uben, "Algebraic Multigrid (AMG)", in Multigrid Methods, (S.F. McCormick, ed.), SIAM, Frontiers in Applied Mathematics, Philadelphia, 1987.
147. J. Rüge, K. St" üben, AMG1R5, release 1.5 Oct. 1990.
148. J. Staats, T. Weiland, S. Kostial, A. Richter, "Tracking of Electron Beams with Numerically Determined Space Charge Forces", in Proceedings of the 1999 Particle Accelarator Conference PAC'99, New York, 27402742.
149. K. St'uben, U. Trottenberg, "Multigrid Methods: Fundamental Algorithms, Model Problem Analysis and Applications", GMD-Studien 96, St. Augustin, 1984.
150. S.B. van der Geer, M.J. de Loos, "The General Particle Tracer Code. Design, implementation and application", PhD thesis, Einhoven, 2001.
151. General Particle Tracer (GPT), release 2.52, Pulsar Physics, De Bongerd 23, Soest, The Netherlands.
152. W. Hackbusch, "Multi-Grid Methods and Applications", Springer, Berlin, 1985.
153. B.E.C. Koltenbah, C.G. Parazzoli, "Space Charge Calculations of Elliptical Cross-Section Electron Pulses in PARMELA", Nucl. Instr. and Meth. in Phys. Res. A, Vol. 429, 1999, 281-286.
154. G. F'oplau, U. van Rienen, J. Staats, T. Weiland, "Fast Algorithms for the Tracking of Electron Beams", Proceedings of EPAC 2000, Vienna, 2000, 1387-1389.
155. G. P'oplau, U. van Rienen, "Multigrid Solvers for Poisson's Equation in Computational Electromagnetics", Proceedings of the 3rd Conference on Scientific Computating in Electrical Engineering (SCEE-2000), (U. van
Rienen, D. Hecht, M.G'unther, eds.), LNSCE 18, Springer, Berlin, 2001, 169-176.
156. J. Staats, T. Weiland, S. Kostial, A. Richter, "Tracking of Electron Beams with Numerically Determined Space Charge Forces", Proceedings of the 1999 Particle Accelerator Conference PAC'99, New York, 1999, 27402742.
157. John H Booske Brain, D McVey and Thomas M Antonsen Jr., J. Appl. Phys. 73(9), 4140 (1993)
158. B. G. Leiman and O. B. Ovasyannikova, Sov. J. Plasma Phys. 10, 70 (1984)
159. H. C. Chen, IEEE Trans. Nucl. Sei. 32, 2380 (1985)
160. S. Cheng, W. W. Destier, V. L. Granastein, T. M. Antonsen Jr., B. Levush, J. Rodegers, and Z. X. Zhzng, IEEE Trans. Plasma Sei. 24, 750 (1996)
161. [A. V. Ravi Kumar, K. K. Mohandas and K. K. Jain, IEEE Trans. Plasma Sei. 26, 556 (1998)
162. R. C. Davidson, H. W. Chen, C. Chan and S. Lund, Rev. Mod. Phys. 63,341 (1991)
163. T. M. Antonsen Jr. and E. Ott, Phys. Fluids 18, 1197 (1975)
164. ARTI GOKHALE, PREETI VYAS, J PANIKAR, Y CHOYAL and K P MAHESHWARI, Numerical investigation of space charge electric field for a sheet electron beam between two conducting planes, Indian Academy of Sciences Vol. 58, No. 1, journal of physics, January 2002, pp. 67-77
165. M.J. van der Wiel, Conf. Proc. 2nd ICFA Future Accelerator Workshop on 'The Physics of High-Brightness Beams', Los Angeles (1999).
166. S. Schreiber, Conf. Proc. ICFA Adv. Accel. Workshop on 'The Physics and Applications of High Brightness Electron Beams', Sardinia, Italy (2002).
167. B. Carlsten and T. Raubenheimer, Phys. Rev. E 51, 1453 (1995).
168. M.J. de Loos, S.B. van der Geer, F.B. Kiewiet, O.J. Luiten, M.J. van der Wiel, Proc. 2002 European Particle Accel. Conf., Paris, France, p. 1831.
169. S.B. van der Geer, M.J. de Loos, Proc. 1998 European Particle Accel. Conf., Stockholm, Sweden, p. 1245.
170. GPT User Manual, Pulsar Physics, De Bongerd 23, Soest, The Netherlands, www.pulsar.nl.
171. G. Pöplau, U. van Rienen, Proc. 3rd Conf. on Scientific Computing in Electrical Engineering 2000, edited by U. van Rienen, D. Hecht and M. Günther, LNSCE (Springer, Berlin, 2001), p. 169.
172. G. Pöplau, U. van Rienen, M.J. de Loos, S.B. van der Geer, Conf. Proc. ICAP, Lansing, Michigan, USA (2002). also: TESLA Report 2003-03, DESY, Hamburg, 2003.
173. W. Hackbusch, Multi-Grid Methods and Applications, Springer, Berlin, 1985.
174. S.B. van der Geer, M.J. de Loos, J.I.M. Botman, O.J. Luiten, M.J. van der Wiel, Phys. Rev. E 65, 046501 (2002).
175. STANLEY HUMPHRIES JR. Numerical Modeling of Space-Charge-Limited Charged-Particle Emission on a Conformal Triangular Mesh, JOURNAL OF COMPUTATIONAL PHYSICS 125, 488-497 (1996)
176. W. Scharf, Particle Accelerators and Their Uses (Harwood Academic, Chur, Switzerland, 1986).
177. S. Humphries Jr., Charged Particle Beams (Wiley, New York, 1990), Section 7.3.
178. R. True, IEEE Trans. Nucl. Sei. NS-32, 2611 (1985); General Purpose Relativistic Beam Dynamics Code, in Computational Accelerator Physics, edited by R. Ryne (Am. Inst, of Phys., New York, 1994), p. 493.
179. S. Humphries Jr., TRAK, in Computational Accelerator Physics, edited by R. Ryne (Am.Inst. of Phys., New York, 1994), p. 597; Integrated Software System for High-power Beam Design, in Beams 94: Proceedings,
10th Conf High Power Particle Beams (National Technical Information Service, NTIS PB95-144317, 1995), p. 568.
A. M. Winslow, J. Comput. Phys. 1(2), 149 (1967).
180. M. N. O. Sadiku, Numerical Techniques in Electromagnetics (CRC Press, Boca Raton, FL, 1992), Chap. 6.
181. W. H. Press, S. A. Teukolsky, W. T. Vetterling, and B. P. Flannery, Numerical Recipes in Fortran, 2nd ed. (Cambridge Univ. Press, Cambridge, 1992), Section 16.1.
182. C. D. Child, Phys. Rev. 32, 492 (1911).
183. D. Potter, Computational Physics (Wiley, New York, 1973), p. 88.
184. J. R. Pierce, Theory and Design of Electron Beams (Van Nostrand, Princeton, NJ, 1949).
185. Langmuir and D. Blodgett, Phys. Rev. 24, 49 (1924).
186. F. Chautard, "Beam Dynamics for Cyclotrons",CAS Proceedings 12 (2005) 209
187. H. W. Kim, Y. S. Lee, B. N. Lee, K. R. Nam, H. S. Song, J. S. Chai, SINGLE PARTICLE TRACKING SIMULATION FOR A COMPACT CYCLOTRON, Proceedings of IPAC2011, San Sebastián, Spain, pp.227422763
188. F. Marti, R.C. York, H. Blosser, M.M. Gordon, D. Gorelov, T. Grimm, D. Johnson, P. Miller, E. Pozdeyev, J. Vincent, X. Wu, A. Zeller, Analysis of a Cyclotron Based 400 MeV/u Driver System For a Radioactive Beam Facility, MSUCL-1131, August 1999
189. F. Marti, et al., "A Cyclotron Based Acceleration Chain for a 400 MeV/u Driver for a Radioactive Beam Facility", MSUCL-1126, June 1999.
190. ISOL Technical Task Force (June 24-25, 1999 at NSCL), C. Leemann, Chairman.
191. E. Baron, M. Bajard and Ch. Ricaud, "Charge exchange of very heavy ions in carbon foils and in the residual gas of GANIL cyclotrons", NIM, A328 (1993), 177-182.
192. R. Servranckx, "Users Guide to the Program DIMAD", SLAC REPORT 285, UC-28(A), May 1985.
193. B. F. Milton, "CYCLONE VER8.3", TRI-DN-99-4,January 28, 1999.
194. B. Franzke, Vacuum Requirements for Heavy Ion Synchrotrons, IEEE Trans, on Nuc. Sci. NS-28 No.3, (1981) 2116.
195. N. Bohr and J. Lindhard, Dan. Mat. Fys. Medd. 28, no. 7 (1954).
196. H.D. Betz and Ch. Schmelzer, UNILAC 1-67 (1967).
197. H.D. Betz, G. Hortig, E. Leischner, Ch. Schmelzer, B. Stadler, and J. Weihrauch, Phys. Lett. 22 No. 5 (1966)643
198. W. Joho, "High Intensity Problems in Cyclotrons", 9th Int. Conference on Cyclotrons, p337, Caen, France 1981.
199. M.M. Gordon, "The longitudinal space charge effect and energy resolution", 5 th
200. Intl. Cyclotron Conf., pages 305-317, Butterworths, London, 1971.
201. M.M. Gordon and V. Taivassalo, "The z4 code and the focusing bar fields used in the extraction calculations for superconducting cyclotrons", Nucl. Inst, and Meth., A247, 423 (1986)
202. Belmont J.L. and Pabot J.L.: Study of Axial Injection for the Grenoble Cyclotron, IEEE Trans. Nucl. Sci. NS-13, p. 191, 1966.
203. Laurency W. Root, Design of an inflector for the TRIUMF cyclotron, A thesis submitted in partial fulfillment of the requirements for the degree of Master of Science in the department of Physics, B.Sc., Oregon State University, 1968.
204. E. E. Perepelkin, A. S. Vorozhtsov, S. B. Vorozhtsov, P. Belicev, V. Jocic, N. Neskovic, B. Radenovic, M. Rajcevic, SPIRAL INFLECTORS AND ELECTRODES IN THE CENTRAL REGION OF THE VINCY CYCLOTRON, Cyclotrons and Their Applications 2007, pp.400-402, Eighteenth International Conference, Laboratori Nazionali del Sud, Giardini Naxos, Italy.
205. Perepelkin E. and RIKEN collaboration RIKEN, Computer modeling of the Nitrogen, Oxygen, and Proton acceleration in RIKEN AVF Cyclotron, Accelerator Progress Report, 2009 vol.42.
206. Perepelkin E. and RIKEN collaboration RIKEN Accelerator, Calculations of the beam transmission and quality in the RIKEN AVF Cyclotron, Progress Report, 2007 vol.4l,p.92
207. S. B. Vorozhtsov, A. S. Vorozhtsov, E. E. Perepelkin, S.Watanabe, S. Kubono, T. Mitsumoto, A. Goto, CALCULATIONS OF THE BEAM TRANSMISSION AND QUALITY IN THE RIKEN AVF CYCLOTRON, Proceedings of RuPAC 2008, pp.51-53, Zvenigorod, Russia
208. Sergey Vorozhtsov, Evgeny Perepelkin, Alexey Vorozhtsov, Shin-ichi Watanabe, Shigeru Kubono, Akira Goto, BEAM SIMULATIONS IN COMPUTER-MODELLED 3D FIELDS FOR RIKEN AVF CYCLOTRON UPGRADE, Proceedings of Particle Accelerator Society Meeting 2009, JAEA, pp.240-243, Tokai, Naka-gun, Ibaraki, Japan
209. S. B. Vorozhtsov, A. S. Vorozhtsov, E. E. Perepelkin, S. Watanabe, S. Kubono, Y. Ohshiro, T. Mitsumoto and A. Goto, Beam Simulation of RIKEN K78 AVF Cyclotron ISSN: 1343-2230, pp.57-78, CNS-REP-76, 2006, University of Tokyo
210. Перепелкин E.E. Аналитическая модель краевого поля инфлектора в циклотроне. Журнал "Математическое моделирование", т.24, №3,2012, стр. 48-64.
211. B.N.Gikal, G..G..Gulbekian, I.A.Ivanenko, U400 Cyclotron spiral inflector with beam vertical focusing effect, Proceedings of IPAC'10, Kyoto, Japan.
212. Жидков Е.П., Перепелкин E.E., Ворожцов С.Б., Моделирование спирального инфлектора и центрирования орбит в компактном циклотроне. Журнал "Математическое моделирование", pp. 704-711, Vol. 1, No 6, 2009.
213. Перепелкин Е.Е., Смирнов C.JL, Ворожцов С.Б., Использование технологии NVIDIA CUDA для расчета динамики пучков заряженных частиц, Вестник РУДН, "Математика. Физика. Информатика", с.76-82, №1,2010
214. Thomas J. Т. Kwan, Richard Е. Morgado, Tai-Sen F. Wang, B. Vodolaga, V. Terekhin, L. M. Onischenko, S. B. Vorozhtsov, E. V. Samsonov, A. S. Vorozhtsov, Yu. G. Alenitsky, E. E. Perpelkin, A. A. Glazov, D. L. Novikov, V. Parkhomchuk, V. Reva, V. Vostrikov, V. A. Mashinin, S. N. Fedotov, S. A. Minayev. The development of enabling technologies for producing active interrogation beams. Rev. Sci. Instrum. 81, 103304, 2010.
215. Юдин И.П., Перепелкин E.E., Тютюнников С.И., Использование среды программирования CUDA при моделировании линии инжекции пучка ионов с учетом пространственного заряда. Письма в ЭЧАЯ, 2011, Т.8, №6(169). С.989-995.
216. Перепелкин Е.Е. 3-х мерная математическая модель оптимизации центральных электродов циклотрона. Вестник РУДН, "Математика. Информатика. Физика.", 2011, №4. С.96-106.
217. E.P.Zhidkov, E.E.Perepelkin, S.В.Vorozhtsov, Modeling of the Spiral Inflector and the Orbit Centering in a Compact Cyclotron, ISSN 2070JJ482, Mathematical Models and Computer Simulations, 2009, Vol. 1, No. 6, pp. 704-711.
218. E. P. Zhidkov , R. V. Poljakova, I.G. Voloshina, E. E. Perepelkin,N. S. Rossiyskaya, Т. V. Shavrina, I. P. Yudin, Computer simulation of spectrometer magnets for some experimental installations, Письма в ЭЧАЯ, 2009, т.6, № 2 (151). С. 285-289
219. Р.В.Полякова, Е.Е.Перепелкин, Т.В.Шаврина, И.П.Юдин, Расчеты распределения поля спектрометрического магнита, Письма в ЭЧАЯ, 2006, т.З, №7(136), с. 74-77
220. A.A.Baldin, E. E. Perepelkin, V. L. Smirnov, and I. P. Yudin, Mathematical Modeling of Field Distribution of SP_57 Magnet for MARUSYA Experiment, ISSN 1547_4771, Physics of Particles and Nuclei Letters, 2010, Vol. 7, No. 1, pp. 51-56.
221. LP. Yudin, I. G. Voloshina, E. E. Perepelkin, and N. S. Rossiyskaya, Numerical Experiment for Obtaining the Field Distribution of the NIS Spectrometric Magnet, ISSN 1547-4771, Physics of Particles and Nuclei Letters, 2007, Vol. 4, No. 4, pp. 367-376
222. R. V. Polyakova, E. E. Perepelkin, T. V. Shavrina, and I. P. Yudin, Calculations of the Field Distribution of a Spectrometric Magnet, ISSN 1547-4771, Physics of Particles and Nuclei Letters, 2006, Vol. 3, Suppl. 1, pp. S43-S45.
223. E. P. Zhidkov, R. V. Poljakova, I. G. Voloshina, E. E. Perepelkin, N. S. Rossiyskaya, T. V. Shavrina, and I. P. Yudin, Computer Simulation of Spectrometer Magnets for Some Experimental Installations, ISSN 15474771, Physics of Particles and Nuclei Letters, 2009, Vol. 6, No. 2, pp. 177179
224. A.A.Baldin, I. G. Voloshina, E. E. Perepelkin, R. V. Polyakova,N. S. Rossiyskaya, T. V. Shavrina, and I. P. Yudin, Numerical Simulation of the Field Distribution Produced by the SP-40 Magnet of the MARUSYA Setup and Comparison of Simulation Results with Experimental Data, ISSN 10637842, Technical Physics, 2007, Vol. 52, No. 11, pp. 1397-1406
225. S.Vorozhtsov, ...A.Vorozhtsov, ...E.Perepelkin, ...etc, The ATLAS Experiment at the CERN Large Hadron Collider, Aad, JINST 2008, S08003, vol.3, p.437
226. Perepelkin E. and ATLAS collaboration, Commissioning of the magnetic field in the ATLAS muon spectrometer, Nucl.Phys.Proc.Suppl., 2008 ISSN:0920-5632, vol. 177-178, pp. 265-266
227. T. J. T. Kwan, R. E. Morgado, T. F. Wang, B. K. Vodolaga, V. A. Terekhin, L. M. Onischenko, S. B. Vorozhtsov, A. S. Vorozhtsov, E. E.
Perepelkin, E. V. Samsonov, V. Parkhomchuk, V. Reva, V. Vostrikov, V. Shirokov, A. Burdakov, V. A. Mashinin, S. A. Minaev, S. N. Fedotov, Detection of Explosives Using Nuclear Resonance Absorption of Gamma Rays in Nitrogen: A Russian/US Collaboration, LA-UR-07-6499, NATO Advanced Research Workshop Detection of Liquid Explosives and Flammable Agents in Connection with Terrorist Actions, St. Petersburg, Russia, October 17-19, 2007
228. E. E. Perepelkin and S. B. Vorozhtsov, CBDA - CYCLOTRON BEAM DYNAMICS ANALYSIS CODE, Proceedings of RuPAC 2008, pp.41-42, Zvenigorod, Russia
229. E.E. Perepelkin, A.S. Vorozhtsov, S.B. Vorozhtsov and L.M. Onischenko, BEAM DYNAMICS SIMULATIONS FOR THE CUSTOMS CYCLOTRON, Proceedings of RuPAC 2006, pp. 348-350, Novosibirsk, Russia
230. S.B.Vorozhtsov, E.E.Perepelkin, A.S.Vorozhtsov, DYNAMICAL PROPERTIES OF THE ELECTROMAGNETIC FIELD OF THE CUSTOMS CYCLOTRON, Proceedings of RuPAC XIX, pp.135-137, Dubna 2004
231. S. B. Vorozhtsov, E. E. Perepelkin, A. S. Vorozhtsov, P. Belicev, N. Neskovic, M. Rajcevic, ION BEAM DYNAMICS SIMULATIONS FOR THE VINCY CYCLOTRON, Proceedings of RuPAC 2006, pp.316-318, Novosibirsk, Russia
232. S.B.Vorozhtsov, L.M, Onischenko and E.E.Perepelkin, CUSTOMS CYCLOTRON AND BEAM DELIVERY SYSTEM, Cyclotrons and Their Applications 2007, pp.421-423, Eighteenth International Conference
233. Perepelkin E., Progress report on SI2-14 modelling, ATLAS Magnetic Field Workshops, CERN, Geneva,CERN, Switzerland, 03/2006
234. Российская H. С., Перепелкин E. E., Полякова P. В., Шаврина Т. В., Юдин И. П., МАТЕМАТИЧЕСКОЕ МОДЕЛИРОВАНИЕ ПОЛЯ СПЕКТРОМЕТРИЧЕСКОГО МАГНИТА УСТАНОВКИ «МАРУСЯ»,
XI Международная конференция "Математика, компьютер, образование", МКО — 2006, т. 2, стр. 178-186.
235. Hadron Collider Physics Symposium, Isola d'Elba, Italy, 2007
236. Dymnikov A.D., Perelshtein E.A, Nucl.Instr. a. Meth. 1978,148,567
237. Lapostolle P.M. Proc. of Particle Accelerator Conf., Chicago, IEEE Trans. Nucl.Sci.,1971 ,NS-18,3,p. 1101
238. Sacherer P.J. Proc. of of Particle Accelerator Conf., Chicago, IEEE Trans. Nucl.Sci., 1971,NS-18,3,p.l 105; CERN/SI/Int.,70-12,1970.
239. IEEE TRANSACTIONS ON MAGNETICS November 1985 Volume MAG-21 Number 6 Z. X. Feng The treatment of singularities in calculation of magnetic field by using integral method
240. Э. А. Айрян, E. П. Жидков, А. В. Федоров, Б. H. Хоромский, И. А. Шелаев, И. П. Юдин, О. И. Юлдашев, ЭЧАЯ 1990 том 21 выпуск 1 Численные алгоритмы расчета магнитных систем ускорителей заряженных частиц.
241. F. Chautard. Beam dynamics for cyclotrons. CERN 2006-012, p.209.
242. N. Hazewindus et. al., The magnetic analogue method as used in the study of a cyclotron central region, Nuclear Instruments and Methods 118 (1974) 125-134.
243. OPERA/TOSCA Reference Manual. Vector Fields Limited. Oxford, OX5 1JE, England
244. V.A.Mashinin et al. "Review of the Possibilities of Gamma-Resonance method of HE Detection". Technical Workshop on Explosives Detection Systems based on Nuclear Resonance Absorption in Nitrogen. June 7 - 9, 2004. Dubna, Russia.
245. L.M.Onischenko et al, "General views of the Customs Cyclotron (magnetic, acceleration and extraction systems)". Ibid.
246. A.S.Vorozhtsov, S.B.Vorozhtsov. Magnetic Field Simulation in the Customs Cyclotron. RuPAC 2004
247. V.Reva. "Dynamics of the intensive proton beam in the storage ring and the generation of resonance gamma-rays" Technical Workshop on Explosives Detection -Systems based on Nuclear Resonance Absorption in Nitrogen. June 21 - 22, 2007. St. Petersburg, Russia.
248. http://laacgl .lanl.gov/laacg/services/download_trace.phtml
249. https://edms.cern.ch/nav/ATLAS
250. Юдин И.П., Перепелкин E.E. Использование параллельных вычислений на графических процессорах при исследовании пропускной способности канала транспортировки пучка ионов с учетом пространственного заряда. Вестник СПбГУ, т. 10, №3, с. 103112, 2012.
Обратите внимание, представленные выше научные тексты размещены для ознакомления и получены посредством распознавания оригинальных текстов диссертаций (OCR). В связи с чем, в них могут содержаться ошибки, связанные с несовершенством алгоритмов распознавания. В PDF файлах диссертаций и авторефератов, которые мы доставляем, подобных ошибок нет.