Аппаратно-программные средства управления задачами и организация виртуальной памяти в системе с автоматическим распределением ресурсов тема диссертации и автореферата по ВАК РФ 05.13.15, кандидат технических наук Окунев, Анатолий Семенович

  • Окунев, Анатолий Семенович
  • кандидат технических науккандидат технических наук
  • 2005, Москва
  • Специальность ВАК РФ05.13.15
  • Количество страниц 160
Окунев, Анатолий Семенович. Аппаратно-программные средства управления задачами и организация виртуальной памяти в системе с автоматическим распределением ресурсов: дис. кандидат технических наук: 05.13.15 - Вычислительные машины и системы. Москва. 2005. 160 с.

Оглавление диссертации кандидат технических наук Окунев, Анатолий Семенович

ВВЕДЕНИЕ.

ГЛАВА 1. ОБЗОР ВЫЧИСЛИТЕЛЬНЫХ СИСТЕМ НЕТРАДИЦИОННОЙ АРХИТЕКТУРЫ, ВЫЧИСЛИТЕЛЬНЫЙ ПРОЦЕСС В КОТОРЫХ УПРАВЛЯЕТСЯ ПОТОКОМ ДАННЫХ.

1.1. Проблемы повышения производительности в вычислительных системах массового параллелизма.

1.2. Обзор архитектур, которые реализуют модель вычислений, управляемых потоком данных.

1.3. Проблема переполнения памяти токенов в вычислительных системах, управляемых потоком данных и способы ее решения.

1.3.1. Основные причины переполнения памяти совпадений.

1.3.2. Методы преодоления проблемы переполнения памяти совпадений в предыдущих реализациях вычислительных систем, управляемых потоком данных.

1.3.2.1. Принципы управления распределением ресурса памяти в проекте MIT TTDA.

1.3.2.2. Методы ограничения параллелизма программ в проекте MDFM.

Выводы к первой главе.

ГЛАВА 2. РАЗРАБОТКА МЕТОДОВ ПРЕОДОЛЕНИЯ ПЕРЕПОЛНЕНИЯ АП ВСАРР И РЕАЛИЗАЦИЯ ВИРТУАЛЬНОЙ ПАМЯТИ ТОКЕНОВ.

2.1. Архитектура вычислительной системы с автоматическим распределением ресурсов.

2.1.1. Представление информации в ВСАРР.

2.1.2. Общая структура ВСАРР.

2.1.3. Функционирование отдельных устройств ВСАРР.

2.2. Исследование проблемы переполнения ассоциативной памяти ВСАРР и методы ее решения.

2.2.1. Основные причины переполнения ассоциативной памяти.

2.2.2. Методы решения проблемы переполнения ассоциативной памяти ВСАРР.

2.3. Построение иерархии памяти ВСАРР.

2.3.1. Использование буферов токенов и пар в ВСАРР.

2.3.2. Блокировка вычислительного процесса в ВСАРР.

2.3.2.1. Блокировка вычислительного процесса в результате переполнения буферов токенов и пар.

2.3.2.2. Блокировка вычислительного процесса в результате переполнения модулей ассоциативной памяти.

2.3.3. Построение иерархии памяти ВСАРР.

2.3.4. Статистика.

2.4. Принципы организации виртуальной памяти токенов и аппаратная поддержка многозадачного режима работы системы.

2.4.1. Механизм реализации виртуальной памяти токенов.

2.4.2. Аппаратная поддержка многозадачного режима работы системы.

2.4.2.1. Многозадачный режим работы без подзадач.

2.4.2.2. Многозадачный режим работы с включением номера подзадачи в ключ

2.4.2.3. Многозадачный режим работы с использованием областей.

2.4.2.4. Алгоритм работы ЦУУП по откачке и подкачке токенов.

2.5. Аппаратно-программные методы регулирования параллелизма в ВСАРР.

Выводы ко второй главе.

ГЛАВА 3. АЛГОРИТМЫ ВЫПОЛНЕНИЯ КОМАНД УПРАВЛЕНИЯ ЗАДАЧАМИ И РАБОТЫ ЦУУП, РЕАЛИЗУЮЩИХ МНОГОЗАДАЧНЫЙ РЕЖИМ РАБОТЫ СИСТЕМЫ И ВИРТУАЛЬНУЮ ПАМЯТЬ ТОКЕНОВ.

3.1. Специальные команды управления задачами.

3.1.1. Описание команд управления задачами и их классификация.

3.1.2. Алгоритмы выполнения команд управления задачами.

3.1.3. Форматы дополнительных токенов, обеспечивающих выполнение команд управления.

3.2. Структура и режимы функционирования ЦУУП.

3.2.1. Основные функциональные блоки ЦУУП.

3.2.2. Взаимодействие ЦУУП с адаптером ООЗУ и модулями АП.

3.2.3. Основные режимы работы ЦУУП.

3.3. Методы аппаратной поддержки программных конструкций и специальных режимов работы системы.

3.3.1. Аппаратная поддержка механизма подсчета глобальной кратности.

3.3.2. Аппаратная поддержка многовходовых узлов.

3.3.3. Реализации механизма восстановления системы после сбоя или отказа.

Выводы к третьей главе.

ГЛАВА 4. ИССЛЕДОВАНИЕ ФУНКЦИОНИРОВАНИЯ ВЫЧИСЛИТЕЛЬНОЙ СИСТЕМЫ НА ИНСТРУМЕНТАЛЬНОМ ИСПЫТАТЕЛЬНОМ КОМПЛЕКСЕ ВСАРР.

4.1. Имитационная модель системы.

4.2. Программная блочно-регистровая модель системы.

4.3. Проведение экспериментов на инструментальном испытательном комплексе с использованием разработанных специальных команд управления.

4.3.1. Описание задач, на которых проводились исследования.

4.3.2. Результаты исследований прохождения задач в различных режимах запуска.

4.4. Макет вычислительной системы с автоматическим распределением ресурсов.

4.4.1. Структура макета ВСАРР и конструктивные решения для него.

4.4.2. Перспективы развития макета ВСАРР.

Выводы к четвертой главе.

Рекомендованный список диссертаций по специальности «Вычислительные машины и системы», 05.13.15 шифр ВАК

Введение диссертации (часть автореферата) на тему «Аппаратно-программные средства управления задачами и организация виртуальной памяти в системе с автоматическим распределением ресурсов»

Актуальность темы диссертации

Существуют фундаментальные задачи, имеющие большое научное и практическое значение, от решения которых зависит развитие многих важных направлений науки и техники. К ним относятся: задачи ядерной физики, моделирование ядерных процессов; задачи гидродинамики и газодинамики; задачи генной инженерии; задачи прогноза природных геофизических явлений и экологических изменений в окружающей среде; задачи проектирования сверхсложных объектов и комплексов; задачи исследования космоса и другие.

Для решения этих задач требуются суперкомпьютеры с реальной производительностью 1012-1016 операций в секунду. Причем с каждым годом требования, предъявляемые к вычислительной технике, на которой решаются подобные задачи, возрастают [8,12,16].

Одним из основных способов увеличения реальной производительности вычислительных систем является метод распараллеливания вычислений. Ведущие позиции в области параллельных вычислительных систем в настоящее время занимают компьютеры, построенные по фон-неймановской архитектуре. При решении современных фундаментальных задач такие параллельные вычислительные системы имеют низкий коэффициент загрузки процессоров [7]. Существует несколько причин, по которым процессоры данных вычислительных систем работают недостаточно эффективно, а именно:

- необходимость синхронизировать параллельные вычислительные процессы, работающие с общими данными;

- временные потери, возникающие при обмене данными между процессорами.

В результате реальная производительность параллельных вычислительных систем практически на порядок отличается от пиковой и, поэтому, в настоящее время актуальна задача создания системы, которая обеспечивала бы на аппаратном уровне предельное распараллеливание вычислительных процессов и высокую эффективность использования аппаратных средств. С этой целью исследуются различные модели вычислительных систем: реляционные, рекурсивные, асинхронные, функциональные, потоковые и другие [7,18].

В Англии, США и Японии проводились исследования архитектур, в которых вычислительный процесс управляется потоком данных [35,40,41,46,59]. Особенностью таких архитектур является возможность одновременного выполнения всех операций, для которых в данный момент готовы операнды, что обеспечивает предельную степень параллелизма, имеющегося у конкретной задачи. Однако, результаты данных исследований, не нашли широкого применения. Одной из причин являлось то, что не были решены вопросы создания виртуальной памяти и поддержки работы в многозадачном режиме [45].

В отделе «Проблем построения информационно-вычислительных систем высокого параллелизма» Института проблем информатики Российской академии наук под руководством академика [B.C. Бурцева] разработаны новые принципы организации вычислительного процесса и на их основе спроектирована вычислительная система с автоматическим распределением ресурсов, использующая модель вычислений, управляемых потоком данных с динамически формируемым контекстом вычислений. В настоящее время работа над данным проектом продолжается [7].

Для этой системы решена задача максимального распараллеливания вычислительного процесса. Однако для нее актуальным является создание аппаратно-программных средств управления задачами и организация виртуальной памяти. В данной диссертационной работе решаются проблемы, связанные с необходимостью обеспечить возможность выполнения задач (работающих как в однозадачном, так и в многозадачном режимах), для которых требуется объем памяти совпадений (ассоциативной памяти), превышающий реальный объем этой памяти в системе. Цель и задачи работы

Настоящая диссертационная работа посвящена созданию аппаратно-программных средств управления задачами и организации виртуальной памяти в вычислительной системе с автоматическим распределением ресурсов (ВСАРР).

Для достижения поставленной цели в работе решаются следующие основные задачи:

I. Анализ состояния реализованных ранее проектов вычислительных систем с управлением потоком данных с точки зрения выполнения задач, требующих объема памяти совпадений, превышающего реальный объем этой памяти в системе (проблема создания виртуальной памяти), и решения проблем управления параллелизмом задач.

2. Разработка и реализация аппаратно-программных средств управления задачами и метода организации виртуальной памяти в вычислительной системе с автоматическим распределением ресурсов.

3. Разработка системы специальных команд управления задачами, обеспечивающих эффективную загрузку ресурсов системы, осуществляющих контроль над прохождением задач, поддерживающих многозадачный режим и связь ВСАРР с операционной системой, и алгоритмов их выполнения.

4. Разработка структуры и принципов аппаратной реализации центрального устройства управления памятью, обеспечивающего выполнение специальных команд управления задачами и организацию виртуальной памяти.

5. Исследование предложенных методов управления задачами, методов регулирования параллелизма задач на инструментальном испытательном комплексе вычислительной системы с автоматическим распределением ресурсов (на различных классах задач) и анализ данных, полученных в результате исследования.

Объект и предмет исследования

Объектом исследования является вычислительная система новой нетрадиционной архитектуры - вычислительная система с автоматическим распределением ресурсов. Предметом исследования являются аппаратно-программные средства управления задачами и организация виртуальной памяти ВСАРР.

Методы исследования

Исследования проводились с использованием основных положений теории проектирования компьютерных систем, теории параллельных вычислений, теории высокопроизводительных вычислений и методик проектирования сложных вычислительных комплексов с применением систем автоматизированного проектирования. Аппаратная реализация макета ВСАРР велась с применением принципов нисходящего проектирования электронных систем с использованием объектно-ориентированного подхода. Научная новизна

Впервые разработаны аппаратно-программные средства управления задачами, создан метод организации и предложены принципы реализации виртуальной памяти в машине потоковой архитектуры - системе с автоматическим распределением ресурсов.

Основные научные результаты работы состоят в следующем:

1. На основе проведенного анализа архитектуры ВСАРР разработаны методы организации работы системы в многозадачном режиме.

2. Впервые разработана система специальных команд управления задачами, организующих виртуальную память, поддерживающих многозадачный режим работы и связь ВСАРР с операционной системой, и алгоритмы их выполнения.

3. Впервые разработаны подходы к созданию ВСАРР, работающей в реальном масштабе времени, обеспечивающие восстановление работоспособности системы с контрольных точек и обработку прерываний, возникающих при сбоях и отказах отдельных устройств.

4. Впервые разработана структура и принципы функционирования центрального устройства управления памятью (ЦУУП), обеспечивающего выполнение специальных команд управления задачами, организацию виртуальной памяти и взаимодействие ВСАРР с операционной системой.

5. Впервые разработаны механизмы функционирования аппаратуры по сбору статистики в ВСАРР, контролю прохождения задач и подзадач, применяемые при реализации ЦУУП и методов преодоления переполнения ассоциативной памяти.

6. Исследовано прохождение ряда задач на инструментальном испытательном комплексе, подтвердившее правильность разработанных решений с точки зрения управления задачами и организации виртуальной памяти системы.

7. Предложены новые методы аппаратной реализации многовходовых узлов, подсчета глобальной кратности и средств восстановления системы.

Практическая значимость

Практическая значимость работы заключается в следующем:

1. Разработанные в диссертационной работе аппаратно-программные средства управления задачами, связанные с одно- и многозадачным режимом работы и организацией виртуальной памяти, обеспечивают прохождение задач, для выполнения которых требуется объем ассоциативной памяти, превышающий реальный объем этой памяти в ВСАРР.

2. Разработанные в диссертационной работе специальные команды управления задачами, вошедшие в систему команд ВСАРР, реализуют новые возможности работы системы: организацию виртуальной памяти, обеспечение многозадачного режима работы и связи ВСАРР с операционной системой.

3. Разработана структура и принципы реализации ЦУУП, обеспечивающего выполнение специальных команд управления задачами, что позволяет повысить эффективность использования ресурсов системы при решении различных классов задач.

4. Разработаны подходы к созданию ВСАРР, работающей в реальном масштабе времени, которые позволяют обрабатывать прерывания по сбоям и отказам отдельных устройств и обеспечивают продолжение решения задач с контрольных точек.

5. Разработаны и реализованы аппаратно-программные средства, предназначенные для: контроля прохождения задач и подзадач, регулирования параллелизма задач, сбора статистики, что делает возможным дальнейшее совершенствование архитектуры, а также реализацию предлагаемых методов в ВСАРР и в специализированных вычислительных системах подобной архитектуры.

6. Разработаны алгоритмы аппаратной реализации механизма подсчета глобальной кратности, многовходовых узлов, оптимизирующие выполнение задач, и которые позволят в будущем расширить возможности системы.

7. Проведено исследование прохождения ряда задач на инструментальном испытательном комплексе и продемонстрирована эффективность работы предлагаемой системы специальных команд управления задачами.

Положения, выносимые на защиту

1. Анализ новой архитектуры с точки зрения возможности создания аппаратно-программных средств управления задачами и организации виртуальной памяти в ВСАРР.

2. Разработанная система специальных команд управления задачами и алгоритмы их выполнения, позволяющих добиться эффективной загрузки ресурсов системы и поддерживать многозадачный режим работы.

3. Разработанные принципы и средства реализации механизма виртуальной памяти.

4. Разработанная структура и принципы аппаратной реализации центрального устройства управления памятью, реализующего систему специальных команд управления задачами и аппаратные средства преодоления переполнения АП в автоматическом режиме.

5. Исследование предложенных методов управления задачами на инструментальном испытательном комплексе вычислительной системы.

Реализация результатов работы

Новые теоретические положения и технические решения апробированы на инструментальном испытательном комплексе ВСАРР. Результаты работы реализованы в Институте проблем информатики РАН (ИПИ РАН) в отделе «Проблем построения информационно-вычислительных систем высокого параллелизма» при исследовании и разработке вычислительной системы с автоматическим распределением ресурсов и при реализации проекта по созданию макета вычислительной машины данной архитектуры. Апробация работы

Основные положения и результаты работы докладывались и обсуждались на научных семинарах в ИПИ РАН в 1999-2005 гг., а также на конференциях и научных форумах: на международной конференции «Информационные технологии в науке, образовании, телекоммуникации, бизнесе» (г. Гурзуф, 2001), на международной научно-технической конференции «Интеллектуальные и многопроцессорные системы ИМС'2003» (пос. Дивноморское, 2003), на международной научно-практической конференции «Искусственный интеллект

2004. Интеллектуальные и многопроцессорные системы - 2004» (пос. Кацивели, Крым, 2004), на «II Научной сессии Института проблем информатики Российской академии наук: Проблемы и методы информатики» (Москва, 2005), на международной научно-технической конференции «Интеллектуальные и многопроцессорные системы ИМС'2005» (пос. Дивноморское, 2005), на второй Всероссийской научно-технической конференции «Методы и средства обработки информации МСО-2005» (Москва, 2005).

Некоторые решения, созданные в рамках диссертации в виде имитационной модели, демонстрировались на Всемирной выставке по информационным технологиям CeBIT-2003, Ганновер, Германия.

Исследование разработанных методик, алгоритмов и схемотехнических решений проводилось в Институте проблем информатики РАН на инструментальном испытательном комплексе. Структура и объем диссертации

Диссертационная работа состоит из введения, четырех глав, заключения, списка литературы и одного приложения. Общий объем диссертации составляет 160 страниц.

Похожие диссертационные работы по специальности «Вычислительные машины и системы», 05.13.15 шифр ВАК

Заключение диссертации по теме «Вычислительные машины и системы», Окунев, Анатолий Семенович

Основные результаты диссертационной работы

1. В работе проведен анализ архитектуры ВСАРР с точки зрения возможности создания аппаратно-программных средств управления задачами и организации виртуальной памяти.

2. На основе проведенных исследований ВСАРР предложены методы решения проблемы переполнения ассоциативной памяти.

3. Проведены исследования, связанные с построением иерархии памяти ВСАРР.

4. Разработана система специальных команд управления задачами, которые поддерживают многопрограммный режим работы, осуществляют контроль над прохождением задач и другие функции, а также разработан механизм реализации виртуальной памяти.

5. Разработаны подходы к созданию механизма, позволяющего обеспечить в ВСАРР восстановление решения задач с контрольных точек и обработку прерываний по сбоям и отказам отдельных устройств.

6. Разработаны структура и принцип функционирования центрального устройства управления памятью, обеспечивающего функционирование команд управления задачами, взаимодействие с операционной системой и сбор статистики.

7. Исследовано прохождение ряда программ на инструментальном испытательном комплексе, которое подтвердило правильность разработанных методов управления задачами и построения виртуальной памяти ВСАРР.

8. Предложены новые методы аппаратной реализации подсчета глобальной кратности, поддержки многовходовых узлов в ВСАРР, позволяющие оптимизировать выполнение задач.

ЗАКЛЮЧЕНИЕ

Дальнейшие исследования целесообразно вести в следующих направлениях:

1. По результатам диссертационной работы продолжить исследования системы команд управления задачами и методов ее применения.

2. Создать следующую версию макета, способного решать задачи, для которых требуется объем ассоциативной памяти, превышающий реальный объем этой памяти в ВСАРР.

Список литературы диссертационного исследования кандидат технических наук Окунев, Анатолий Семенович, 2005 год

1. Антонов А.П. «Язык описания цифровых устройств AlteraHDL. Практический курс», - М.: ИП РадиоСофт, 2001.

2. Антонов А.П., Мелехин В.Ф., Филиппов А.С. Обзор элементной базы фирмы Altera. СПб.: Файнстрит, 1997.

3. Березко A.M. Новые концепции в архитектуре потоковых машин с тегированием данных // Отчет отдела системного программирования ВЦКП РАН. М.:1991.

4. Березко A.M. Принципы действия и архитектура манчестерской потоковой машины//Отчет по теме «Анализ современного состояния архитектур вычислительных машин потока данных». М., 1988.

5. Бурцев B.C. Выбор новой системы организации выполнения высокопараллельных вычислительных процессов, примеры возможных архитектурных решений построения суперЭВМ // Параллелизм вычислительных процессов и развитие архитектуры суперЭВМ. М.: 1997. -С.41.

6. Бурцев B.C. Научная школа академика С.А. Лебедева в развитии вычислительной техники // С.А. Лебедев. К 100-летию со дня рождения основоположника отечественной электронной вычислительной техники. Отв. ред. B.C. Бурцев. М.: ФИЗМАТЛИТ, 2002. С. 238-252.

7. Бурцев B.C. Новые принципы организации вычислительных процессов высокого параллелизма // Материалы Международной научно-технической конференции «Интеллектуальные и многопроцессорные системы 2003». Т.1. Таганрог: Изд-во ТРТУ, 2003.

8. Бурцев B.C. О необходимости создания суперЭВМ в России//Сб. статей «Параллелизм вычислительных процессов и развитие архитектуры суперЭВМ», М., 1997

9. Бурцев B.C. Перспективы развития вычислительной техники//Сб. статей «Параллелизм вычислительных процессов и развитие архитектуры суперЭВМ. МВК Эльбрус». М., 1998.

10. Бурцев B.C. Система массового параллелизма с автоматическим распределением аппаратных средств суперЭВМ в процессе решения задачи //

11. Сб. Вычислительные машины с нетрадиционной архитектурой. СуперЭВМ. -Вып. 2. М.: ВЦКП РАН, 1994. - С.3-37.

12. Бурцев B.C., «Тенденции развития высокопроизводительных систем и многопроцессорные вычислительные комплексы», в сб.статей «Параллелизм вычислительных процессов и развитие архитектуры суперЭВМ. МВК Эльбрус», Москва, 1998.

13. Воеводин В.В. Суперкомпьютеры: вчера, сегодня, завтра. // Сборник научно-популярных статей «Российская наука на заре нового века». Под ред. академика В.П. Скулачева. М.: научный мир, 2001. С. 475-483.

14. Воеводин В.В., Воеводин Вл.В. Параллельные вычисления. СПб.: БХВ-Петербург, 2002.

15. Каляев А.В., Левин И.И. Многопроцессорные системы с перестраиваемой архитектурой. Концепция развития и применения // Наука производству. -1999.-№11.-С. 11-18.

16. Комолов Д.А. и др. САПР фирмы Altera МАХ + Plus II и Quartus П//РадиоСофт. 2002.

17. Корнеев В.В. Архитектуры с распределенной разделяемой памятью // Открытые Системы. 2001. - №3. - С.15-23.

18. Мокрушин JI.A. Концепция компьютеров потока данных: Обзор-реферат. // Л.: ЛЭТИ, каф. ИИТ, 1990

19. Окунев А.С., Левченко Н.Н. Методы аппаратной реализации многовходовых узлов вычислительной системы с автоматическим распределением ресурсов // Научно-теоретический журнал «Искусственный интеллект» 3, 2004 1ПШ1 «Наука i освгга», 2004, стр. 149-156.

20. Разевиг В.Д. Система проектирования цифровых устройств OrCAD. -М.:"Солон-Р", 2000.

21. Стешенко В.Б. «ПЛИС фирмы ALTERA: проектирование устройств обработки сигналов.», М.: Додэка, 2000.

22. Стешенко В.Б. ПЛИС фирмы "Altera": Элементная база, система проектирования и языки описания аппаратуры. М.: "Додэка-XXI", 2002.

23. Угрюмов Е.П. Цифровая схемотехника. 2-е изд., перераб. и доп., BHV, 2004.

24. Фортов В.Е., Левин Вл.К., Савин Г.И., Забродин А.В., Каратанов В.В., Елизаров Г.С., Корнеев В.В., Шабанов Б.М. Суперкомпьютер МВС-ЮООМ и перспективы его применения. // Наука и промышленность России. 2001. -№11. -С. 49-52.

25. Хетагуров Я.А. Основы проектирования управляющих вычислительных систем. М.: Радио и связь, 1991.

26. Шабанов Б.М., Яицков А.С. VHDL язык описания аппаратуры. Учебное пособие. Москва, МИЭТ, 2003.

27. Altera Corporation. APEX 20К Programmable Logic Device Family. Data Sheet. August 1999. ver.2.02.

28. Altera Corporation. Stratix device handbook. Volume 1. May 2003.

29. Arvind, Dahbura A.T., Caro A. Computer Architecture Research and the Real World//Computation Structures Group Memo 397, MIT Laboratory for Computer Science, Cambridge, MA, 1997, April 23.

30. Arvind, Nikhil R.S. Executing a program on the MIT tagged-token dataflow architecture//Lect. Notes Comput. Sc. 259 (1987). P. 1-29.

31. Arvind, Nikhil R.S., Executing a program on the MIT Tagged-Token Dataflow Architecture/ЛЕЕЕ Transactions of computers. 1990. March. V. 39, no. 3.

32. Arvind, Stephen Brobst. The evolution of dataflow architectures: from static dataflow to P-RISC/TInternational Journal of High Speed Computing. 1993. V. 5, no. 2. P. 125-153.

33. Arvind, Thomas R.E. I-structures: An efficient data type for parallel machines//Tech. Rep. TM 178, Computat. Structures Group, MIT Lab. for Comput. Sci., 545, Technology Square, Cambrige, MA 02139. 1980. Sept.

34. Barrington D.A., Culler D.E. DATAFLOW ARCHITECTURES//MIT Laboratory for Computer Science, 1986, February 2.

35. Ben Lee, Hurson A. R. Dataflow Architectures and Multithreading//Computer. 1994. Aug. V. 27, no. 8. P. 27-39.

36. Computing, ed. L. Bic and J.-L. Gaudiot, Prentice Hall, 1991. P.35-91

37. Culler D., Papadopoulos G. The Explicit Token Store//Journal of parallel and distributed computing. 1990. № 10. P. 289-308.

38. Culler D.E. Resource Management for the Tagged Token Dataflow Architecture//MIT. 1980. Jan.

39. David E. Culler, Klaus E. Schauser, and Thorsten von Eicken. Two Fundamental Limits on Dataflow Multiprocessing // IFIP WG 10-3 Parallel Architectures and Compilation Techniques, Jan 1992.

40. Dennis J., Data Flow Supercomputers // Computer. Vol.13. - No.l 1. Nov, 1980. -P.48-56

41. Dennis J., Misunas D. A preliminary Architecture for Basic Data-Flow Processor//Project MAC, MIT, Houston, TX. 1975. Jan. P. 126-132.

42. Dennis J.B. The Evolution of «Static» Data-Flow Architecture//Advanced Topics in Dataflow Computing, ed. Bic L. and Gaudiot J.-L., Prentice Hall, 1991.

43. Feo J.T., Cann D.C., Oldehoeft R.R. A Report on the SISAL Language Project//Journal of Parallel and Distributed Computing, 10:349-366. 1990. Dec.

44. Gravlen 0. «The Evolution of Dataflow Computers Project Paper for 45214 Computer Architecture». University of Trondheim, 1994.

45. Gurd J. R., Kirkham С. C., Watson I. The Manchester Prototype Dataflow Computer//In S. S. Thakkar, editor, Selected Reprints on Dataflow and Reduction Architectures. IEEE Computer Society Press, Los Alamitos, CA, 1987. P. 111-129.

46. Gurd J.R. The Manchester dataflow machine//Future Generations Computer Systems 1. 1985. P. 201-212.

47. Herath J., Yamaguchi Y., Saito N., Yuba T. Dataflow Computing Models, Languages, and Machines for Intelligence Computations//IEEE Transactions on Software Engineering. 1988. Dec. V. 14, no. 12.

48. Hiroshi Nagase, Masakuni Kameya, Takashi Kawanami, Tomoki Shiono. Dataflow Computer which Accelerates Execution of Sequential Programs by Firing Instruction Precedently//System and Computers in Japan. 2002. V. 33, no. 9. P. 6877.

49. Iannucci R. Toward a Dataflow/von Neumann Hybrid Architecture//In 15th Annual International Symposium on Computer architecture. 1988. P. 131-140.

50. Jagannathan R., Dataflow Models//Parallel and Distributed Computing Handbook:

51. Editor Zomaya E.Y., McGraw-Hill, 1996.

52. Kahaner D.K. Parallel processing research in Japan//Supplement. 1991. May.

53. Kaufmann M. Computer Architecture. A Quantitative Approach, 3rd Edition, 2002.

54. Michael L. Dertouzos. The Future of Computing//Scientific American. 1999. August 19.

55. Nikhil R.S. Dataflow Programming Languages//The 13th IMACS World Congress on Computation and Applied Mathematics, Trinity College, Dublin, Ireland, July 22-26, 1991.

56. Null L., Lobur J. The essentials of computer organization and architecture//Jones and Bartlett Publishers, Inc. 2003.

57. Papadopoulos G.M., Traub K.R. Multithreading: A revisionist view of dataflow architectures/An Proceedings of the 18th Annual International Symposium on Computer Architecture//IEEE Computer Society. 1991. P. 342-351.

58. Papadopoulos M., Culler D. Monsoon: an Explicit Token-Store Architecture//Proc. of 17th Intl. Symposium on Computer Architecture (ISCA-17), May 1990. P. 82-91.

59. Robic В., Silc J., Ungerer T. Beyond dataflow//.!. Computing and Information Technology, 8(2):89-101. 2000.

60. Saphir W., Woo A., Yaroww M. The NAS Parallel Benchmark 2.1 Results//Report NAS-96-010, August 1996.

61. Shimada Т., Hiraki K., Sekiguchi S. A Dataflow Supercomputer for Scientific Computations: The SIGMA-1 System//Translated into English by Eoyang C, and published in The Institute for Supercomputing Research Vector Register, 11.15. 1988. P. 3-9.

62. Silc J., Robic B. Did Processor Architecture Make the Best of Dataflow?//PDPTA'2000.

63. Silc J., Robic В., Ungerer T. Asynchrony in parallel computing: From dataflow to multithreading//Parallel and Distributed Computing Practices. 1998. 1(1): 3-30.

64. Toshitsugu Yuba, Toshio Shimada, Yoshinori Yamaguchi, Kei Hiraki, Shuichi

65. Sakai. Dataflow computer development in Japan//4th International Conference on Supercomputing, Amsterdam, The Netherlands, 1990.

66. Traub K.R., Popadopoulos G.M., Beckerle M.J., Hicks J.E., Young J. Overview of the Monsoon Project//Proceedings of the 1991 IEEE International Conference on Computer Design, Cambridge, MA. 1991. Oct.

67. Veen A.H. Dataflow machine architecture//ACM Computing Surveys (CSUR). 1986. Dec. V. 18, Issue 4.

68. W. Ackerman. Data flow languages. IEEE Comput. 15, 2, 15—25, 1982.

69. Watson I., Gurd J.R. A prototype data flow computer with token labeling//Proc. National Сотр. Conf., Jun. 1979. P. 623-628.

70. Yamaguchi,Y. SakaiS. An Architectural Design of a Highly Parallel Dataflow Machine//To appear in IFIP'89. 1989.

71. Yuba Toshitsugu. Research and Development Efforts on Dataflow Computer Architecture in Japan//Journal of Information Processing Abstract. 2002. V. 09, no. 02.1. ПЕРЕЧЕНЬ СОКРАЩЕНИЙад. номер задачи1. ТЧподзад. номер подзадачи

72. АЗУ ассоциативное запоминающее устройство1. АП ассоциативная память

73. АТЗ аппаратная таблица задач

74. АТЗиП аппаратная таблица задач и подзадач

75. АТП аппаратная таблица подзадач

76. МАП модуль ассоциативной памяти

77. Асл. адрес программы узла в памяти команд1. БГП буфер готовых пар

78. ВСАРР вычислительная система с автоматическим распределением ресурсов

79. ВУ вычислительный узел (кольцо)

80. ИИК инструментальный испытательный комплекс

81. ИУ исполнительное устройство1. КМ коммутатор

82. ООЗУ общее оперативное запоминающее устройство1. МООЗУ модуль ООЗУ

83. ПБРМ программная блочно-регистровая модель

84. ЦУУП центральное устройство управления памятью

85. AHDL Altera HDL язык функционального описания электронных структур

86. MDFM Manchester Data-Flow Machine

87. MIT Массачусетский технологический институт

88. MIT TTDA MIT Tagged-Token Dataflow Machine

89. VHDL Very high speed integrated circuit Hardware Description Languageязык функционального описания электронных структур1. КОП код операции

90. НМД накопитель на магнитном диске1. ОС операционная система1. ПК память команд1561. Пконст. память констант

91. ПЛИС программируемые логические интегральные схемы

92. ПО программное обеспечение1. Прасш. память расширения1. ПЭ процессорный элемент

93. САПР система автоматизированного проектирования

94. ТЭЗ типовой элемент замены1. УУ устройство управления

Обратите внимание, представленные выше научные тексты размещены для ознакомления и получены посредством распознавания оригинальных текстов диссертаций (OCR). В связи с чем, в них могут содержаться ошибки, связанные с несовершенством алгоритмов распознавания. В PDF файлах диссертаций и авторефератов, которые мы доставляем, подобных ошибок нет.