Разработка алгоритмов прямого синтеза аппроксимирующих искусственных нейронных сетей тема диссертации и автореферата по ВАК РФ 05.13.11, кандидат технических наук Мохов, Василий Александрович

  • Мохов, Василий Александрович
  • кандидат технических науккандидат технических наук
  • 2005, Ростов-на-Дону
  • Специальность ВАК РФ05.13.11
  • Количество страниц 179
Мохов, Василий Александрович. Разработка алгоритмов прямого синтеза аппроксимирующих искусственных нейронных сетей: дис. кандидат технических наук: 05.13.11 - Математическое и программное обеспечение вычислительных машин, комплексов и компьютерных сетей. Ростов-на-Дону. 2005. 179 с.

Оглавление диссертации кандидат технических наук Мохов, Василий Александрович

ВВЕДЕНИЕ.

Глава 1. СОВРЕМЕННОЕ СОСТОЯНИЕ ПРОБЛЕМЫ

НЕЙРОСЕТЕВОГО МОДЕЛИРОВАНИЯ.

1.1. Особенности реализации моделей.

1.2. Многослойные нейронные сети.

1.3. Сети с радиальными базисными функциями активации.

1.4. Анализ возможных перспектив реализации и применения искусственных нейронных сетей.

Выводы по первой главе.

Глава 2. ЗАДАЧИ САМООРГАНИЗАЦИИ ИНС.

2.1. Анализ подходов к классификации данных ИНС.

2.2. Обоснование принципа работы нейросетевого классификатора.

2.3. Анализ и выбор вида аппроксимирующего полинома.

2.4. Математический аппарат алгоритма формирования обучающей выборки.

2.4.1. Мера отклонения М.

2.4.2. Правила расчета коэффициентов полиномов.

2.4.3. Оценка погрешности нейросетевых моделей.

2.5. Алгоритм формирования обучающей выборки.

Выводы по второй главе.

Глава 3. ПРИНЦИПЫ СОЗДАНИЯ ИСКУССТВЕННЫХ НЕЙРОННЫХ СЕТЕЙ НА БАЗЕ ПРЕДЛОЖЕННОГО АЛГОРИТМА ФОРМИРОВАНИЯ ОБУЧАЮЩЕЙ ВЫБОРКИ.

3.1. Общие принципы формирования нейросетевой модели.

3.2. Структура искусственной нейронной сети.

3.3. Обучение (настройка параметров) искусственной нейронной сети.

3.3. Разработка грамматики для формального описания ИПС.

3.4. Анализ вариантов реализации ИНС.

3.5. Анализ возможностей реализации ИНС на базе интегральных микросхем с программируемой логикой.

Выводы по третьей главе.

Глава 4. ЭКСПЕРИМЕНТАЛЬНАЯ ПРОВЕРКА

НЕЙРОСЕТЕВЫХ МОДЕЛЕЙ.

4.1. Абстрактная модель нейронной сети.

4.1.1 Аппаратная реализация и интерфейс для модели нейронной сети

4.2. Аппроксимация характеристики электромагнита.

4.3. Аппроксимация характеристик, применяемых в управлении инжекторным двигателем внутреннего сгорания.

4.4. Аппроксимация характеристики кислородного давления для сеансов ГЪО

4.4.1. Лечение кислородом под повышенным давлением.

4.4.2. Постановка задачи.

4.4.3. План формирования модели, обработка данных и апробация программной модели ИНС.

Выводы по четвёртой главе.

Рекомендованный список диссертаций по специальности «Математическое и программное обеспечение вычислительных машин, комплексов и компьютерных сетей», 05.13.11 шифр ВАК

Введение диссертации (часть автореферата) на тему «Разработка алгоритмов прямого синтеза аппроксимирующих искусственных нейронных сетей»

Актуальность

В последнее время в области моделирования и автоматического управления широкое применение нашли искусственные нейронные сети (ИНС). Возможность сформулировать многие задачи распознавания, идентификации и обработки сигналов в аппроксимационной постановке обострила вопросы проведения теоретических исследований и разработки программных инструментальных средств для автоматизации процессов проектирования аппроксимирующих ИНС.

Несмотря на широкий спектр возможностей ИНС, решению задач с их применением сопутствует ряд недостатков, среди которых имеют место следующие:

- большинство подходов для проектирования ИНС являются эвристическими и часто не приводят к однозначным решениям;

- для построения модели объекта на основе ИПС требуется выполнение многоцикловой настройки внутренних элементов и связей между ними;

- обучение сети в ряде случаев приводит к тупиковым ситуациям;

- продолжительные временные затраты на выполнение процедуры обучения зачастую не позволяют применять И11С в системах реального времени;

- поведение обученной ИНС не всегда может быть однозначно предсказуемо, что увеличивает риск применения ИПС для управления дорогостоящими техническими объектами;

- при моделировании линейных участков функций на основе суперпозиции нелинейных функций, традиционно применяемых в ИНС, возникает ряд сложностей;

- большинство известных коммерческих продуктов схемотехнической реализации нейронных сетей, выполняются в виде сверхбольших интегральных схем (СБИС), которые сегодня трудно назвать широкодоступными и др.

Поиск оптимального соотношения параметров нейросетевых моделей и их характеристик в каждом конкретном случае является одной из ключевых задач, для эффективного решения которой необходим широкий спектр методов, алгоритмов и программ синтеза, различающихся по объёму вычислений, качеству получаемых результатов, времени поиска решения, способам представления данных.

Эти обстоятельства позволяют отметить актуальность разработки новых алгоритмов для подбора обучающих примеров, ориентированных на минимизацию аппаратурных затрат при последующей реализации ИНС.

При этом в последнее время на мировом рынке появилось новое технологическое решение в виде программируемых логических интегральных схем (ПЛИС), потенциально подходящих для реализации ИНС (обладающих возможностью локальной организации распределенных вычислений).

Как следствие, в предлагаемой диссертационной работе основное внимание уделяется разработке, реализации и исследованию возможностей алгоритмов, которые:

1) позволяли бы синтезировать ИНС, моделирующие с заданной точностью функциональные зависимости;

2) использовали бы для синтеза аппроксимирующих ИНС преимущества известных нейросетей;

3) предоставили бы возможность сведения к минимуму числа тренировочных шаблонов для выполнения аппроксимации на базе ИНС. Очевидно, что сформулированные даже в первом приближении минимальные технологические требования предполагают решение целого ряда специфических задач, представленных в диссертационной работе.

Резюмируя вышесказанное, можно сделать вывод о том, что исследования, ставящие целью разработку алгоритмов и программных средств для синтеза аппроксимирующих искусственных нейронных сетей в рамках решения отмеченных проблем, являются актуальными и представляют научный и практический интерес.

Объект исследования

Алгоритмы и методики прямого синтеза аппроксимирующих ИПС, основанные на целенаправленной подготовке обучающих выборок, а также программные и аппаратные средства реализации аппроксимирующих ИПС.

Цель и задачи работы

Целью настоящей работы является разработка алгоритмов, инструментальных программных средств и методики для автоматического получения формального описания искусственных нейронных сетей.

Для достижения поставленной цели в работе решаются следующие задачи:

1. Разработка аппарата аналитического описания аппроксимирующих ИНС, где количество нейронов является минимизированным для наперед заданной величины погрешности.

2. Разработка методики определения параметров (методики обучения) ИПС указанного класса. ь 3. Разработка алгоритма формирования обучающей выборки для аппроксимирующих ИНС и соответствующего математического обоснования.

4. Подготовка инструментальной программной системы для синтеза формального описания нейросетевых моделей указанного класса.

5. Осуществление анализа возможности создания и использования спецвычислителей (нейросетевых аппроксиматоров) на базе устройств с программируемой логикой.

Основные научные результаты

1. Разработана методика прямого синтеза аппроксимирующих ИПС с простой интерпретацией и получением их аналитического описания, отличающаяся целенаправленной подготовкой обучающей выборки для настройки сети.

2. Разработаны алгоритмы синтеза ИНС, где количество нейронов является минимизированным для наперед заданной величины погрешности за счет оперативного анализа нелинейности моделируемых функциональных зависимостей.

3. Разработана технология интерпретации получаемого формального описания нейросетевых моделей для создания и использования спецвычислителей (нейросетевых аппроксиматоров) на базе устройств с программируемой логикой и возможностью распараллеливания вычислений, обеспечивающая существенное повышение скорости разработки аппаратных устройств за счет сокращения врег менных и трудозатрат на получение программного кода описания аппаратной реализации нейросетевых спецвычислителей.

Основные положения, выносимые на защиту

1. Методика прямого синтеза аппроксимирующих ИНС с простой интерпретацией и получением их аналитического описания.

2. Быстродействующие алгоритмы для синтеза ИНС, где количество нейронов является минимизированным для наперед заданной величины погрешности.

3. Технология интерпретации получаемого формального описания нейросетевых моделей для создания и использования спецвычислителей (нейросетевых аппроксиматоров) на базе устройств с программируемой логикой и возможностью распараллеливания вычислений.

Практическая ценность

На основе теоретических результатов, полученных в работе, можно выделить следующие практические результаты:

1. Разработанная методика синтеза ИНС позволяет в автоматическом режиме получать формальное описание нейросетевых моделей, где количество нейронов является минимизированным для наперед заданной величины погрешности.

2. Алгоритмы, разработанные для анализа моделируемых объектов, позволяют проводить оперативный контроль их нелинейностей непосредственно по ходу исследования.

3. На основании формального описания нейросетевых моделей предоставляется возможность выбора одного из проанализированных вариантов реализации в аппаратном или программном виде.

Данная работа представляет интерес для решения задач синтеза и программной/аппаратной реализации аппроксимирующих ИНС. Особый интерес представляет использование алгоритма целенаправленного формирования обучающей выборки для последующего создания нейросетевой модели. В частности, характерным примером эффективного использования практически всех полученных в диссертационной работе результатов является применение разработанной нейросетевой модели для определения оптимального давления кислорода в бароаппарате при проведении сеансов гипербарической оксигенации (ГБО) у больных с огнестрельными ранениями и ожогами.

Методы исследования

При выполнении данной работы использовался математический аппарат теории искусственных нейронных сетей, теории распознавания образов, вычислительной геометрии, линейной алгебры, теории дифференциального и интегрального исчислений, теории компиляторов, функционального и объектно-ориентированного программирования.

Апробация работы

Результаты работы докладывались и обсуждались на Международных, Всероссийских научно-технических конференциях, в том числе на:

Всероссийском научно-техническом семинаре с международным участием «Микропроцессорные системы мониторинга, диагностики и управления сложными техническими объектами, организационно-техническими системами и комплексами», Таганрог, 2003;

Международной научно-технической конференции «Интеллектуальные системы (IEEE AISQ3)» и «Интеллектуальные САПР (CAD-2003)», Москва, 2003;

XVII Международной конференции «Математические методы в технике и технологиях (ММТТ-17)», Кострома, 2004;

Международной научно-технической конференции «Интеллектуальные системы (IEEE AIS04)» и «Интеллектуальные САПР (CAD-2004)», Москва, 2004;

Международном коллоквиуме по мехатронике в рамках мероприятия «Дни немецкой культуры на Дону», Новочеркасск, 2004;

V Международной научно-практической конференции «Теория, методы и средства измерений, контроля и диагностики», Новочеркасск, 2004;

V Международной научно-практической конференции «Интеллектуальные электромеханические устройства, системы и комплексы», Новочеркасск, 2004;

XVIII Международной конференции «Математические методы в технике и технологиях (ММТТ-18)», Казань, 2005.

Результаты работы используются в учебном процессе в дисциплинах:

Микропроцессорные системы»;

Технологии программирования».

Достоверность полученных в диссертации результатов подтверждается разработкой действующей программной библиотеки для формирования обучающих выборок и детерминированного построения и оптимизации структуры аппроксимирующих ИНС, а также действующих образцов аппаратно-реализованных ИНС и прикладной программы для определения оптимального давления кислорода в бароаппарате при проведении сеансов ГБО.

Публикации

Результаты, полученные в работе, нашли отражение в 16 печатных работах, среди них 10 статей, 1 свидетельство Всероссийского бюро по патентам и товарным знакам - № 2005610061 «Расчёт обучающей выборки для детерминированного построения искусственной нейронной сети» («Исследователь») и 2 свидетельства Отраслевого фонда алгоритмов и программ: 4550 «Исследователь 1.0» Формирование обучающей выборки для детерминированного построения искусственной нейронной сети»; № 4551 «Создатель 1.0» Детерминированное построение и оптимизация структуры искусственной нейронной сети».

Структура работы

Материал основной части диссертационной работы изложен на 179 страницах машинописного текста. Диссертация состоит из введения, четырех глав, заключения, списка литературы из 104 наименований, содержит 11 таблиц, 37 рисунков, и десять приложений на 39 листах.

Похожие диссертационные работы по специальности «Математическое и программное обеспечение вычислительных машин, комплексов и компьютерных сетей», 05.13.11 шифр ВАК

Заключение диссертации по теме «Математическое и программное обеспечение вычислительных машин, комплексов и компьютерных сетей», Мохов, Василий Александрович

Выводы по четвёртой главе

На основании материала, приведенного в данной главе работы можно сделать следующие выводы:

1. В главе даны примеры следующих конкретных задач, решение которых требует формирования ИНС: макетный пример, демонстрирующий технологию создания ИПС в рамках предлагаемой в диссертационной работе методики; задача моделирования работы электромагнита; задача моделирования функциональных зависимостей, используемых для управления инжекторным двигателем внутреннего сгорания; построение и реализация в виде прикладной программы для ПК зависимости кислородного давления в барокамере от артериального давления, частоты сердечных сокращений и ударного объема сердца пациента для проведения сеансов ГБО.

ЗАКЛЮЧЕНИЕ

В диссертационной работе проведен обзор известных алгоритмов и методов синтеза нейронных сетей, показавший, что на данный момент отсутствуют алгоритмы прямого синтеза аппроксимирующих нейросетей, использующие преимущества известных ИНС для моделирования функциональных зависимостей с заданной точностью с предоставлением возможности сведения к минимуму числа тренировочных шаблонов для выполнения аппроксимации. Предложена методика прямого синтеза аппроксимирующих ИНС с простой интерпретацией и получением их аналитического описания, отличающаяся целенаправленной подготовкой обучающей выборки для настройки сети. Предложены алгоритмы синтеза ИНС, где количество нейронов является минимизированным для наперед заданной величины погрешности. Предложена технология интерпретации получаемого формального описания нейросетевых моделей для создания и использования спецвычислителей (нейросетевых ап-проксиматоров) на базе устройств с программируемой логикой и возможностью распараллеливания вычислений, обеспечивающая существенное повышение скорости разработки аппаратных устройств указанного типа.

В отличие от существующих подходов к синтезу ИНС, предлагаемые алгоритмы и методика позволяют создавать ИНС с рассчитываемыми структурой и значениями параметров, что даёт возможность оптимизации количества нейронов в ИНС в соответствии с задаваемой точностью аппроксимации. Для формирования и настройки сети предлагается путь, основанный не на использовании алгоритмов, подобных алгоритму обратного распространения ошибки, а опирающийся на целенаправленную подготовку обучающей выборки с минимизацией её численного состава и последующий расчет характеристик ИНС.

Список литературы диссертационного исследования кандидат технических наук Мохов, Василий Александрович, 2005 год

1. Вороновский Г.К. Генетические алгоритмы, искусственные нейронные сети и проблемы виртуальной реальности. — Харьков: Основа, 1997.

2. Stone M.N. The generalized Weiersírass approximation theorem II Math. Mag., 1948. Vol.2\.PP. 167—183,237 — 254.

3. Комарцова Л.Г., Максимов A.B. Нейрокомпьютеры: Учебное пособие для вузов. — М.: Изд-во МГТУ им. Н.Э. Баумана, 2002.

4. Park J., Sandberg I. W. Universal approximation using radial basis function networks И Neural Comput. Vol. 3. 1991. P. 246 — 257.

5. Park J., Sandberg I. W. Approximation and radial basis function networks II Neural Comput. Vol. 5. 1993. P. 305 — 316.

6. Говорухин В., Цибулин В. Компьютер в математическом исследовании. Учебный курс. — СПб.: Питер, 2001.

7. Терехов В.А. Нейросетевые системы управления. — М.: ВШ, 2002.

8. Золотов Е. Кормушка для мозгов // Электронное издание журнала «Компьютерра» от 25.10.2004. — http://www.computerra.ru/think/sent inel/ЪЬЪИ/

9. Зенкевич О., Морган К. Конечные элементы и аппроксимация. — М.: Мир, 1986.

10. Сегерлинд Л. Применение метода конечных элементов. —М.: Мир,1979.

11. Грушвицкий Р.И., Мурсаев А.Х., Угрюмов Е.П. Проектирование систем на микросхемах программируемой логики. — СПб.: БХВ-Петербург, 2002.

12. Мохов В.А., Ковалев О.Ф., Федорова Н.В. Об одном из алгоритмов адаптивной аппроксимации // Известия вузов. Электромеханика, 2004. N 3 -С. 55 — 59.

13. Круглов В.В., Борисов В.В. Искусственные нейронные сети. Теория и практика. — М.: Горячая линия Телеком, 2001. — 382 с.

14. Барцев С.И., Гилев С.Е., Охонин В.А. Принцип двойственности в организации адаптивных сетей обработки информации // В кн.: Динамика химических и биологических систем. — Новосибирск: Наука. Сиб. отд-ние, 1989.-с.6 —55.

15. Fletcher R., Reeves С.М. Function minimization by conjugate gradients II Computer Jornal. 1964. Vol. 7. P. 149 — 154.

16. Hagan M.T., Menhaj M. Training feedforward networks with the Marquardt algorithm II IEEE Transactions on Neural Networks. 1994. Vol. 5, N 6. P. 989 — 993.

17. Vogl TP. Mangis J.K. et. al. Accelerating the convergence of the back-propagation method II Biological Cybernetics. 1988. Vol. 59. P. 256 — 264.

18. Rumelhart D.E., Hinton G.E., Williams R.J. Learning representation by back—propagation errors II Nature. 1986. Vol. 323. P. 533 — 536.

19. Маккаллок У.С., Питтс У. Логическое исчисление идей, относящихся к нервной деятельности. Автоматы. М.: ИЛ, 1956.20 .Rosenblatt F. Principles of Neurodynamics. Washington D.S.: Spartan Press, 1961.

20. Minssky M.L., Papert S.A. Perceptrons. — Cambridge, MA: MIT Press,1969.

21. Rumelhart D.E., Hinton G.E., Williams R.J. Learning internal representation dy error propagation //In: D.E. Rumelhart and J.L. McClelland (Eds.) Parral-lel Distributed Processing, Vol. I Foundations. — Cambridge, MA: MIT Press, 1986. P. 318 — 362.

22. Werbos P.J. Beyond regression: New tools for prediction and analysis in the behavioral sciences. PhD Thesis, Harvard University, Cambridge, MA, 1974.

23. Барцев С.И., Охонин В.А., Адаптивные сети обработки информации. — Красноярск, 1986. — 20 с.— (Препринт / АН СССР. Сиб. отд-ние. Ин-т физики; N 59Б).

24. Медведев B.C., Потемкин В.Г. Нейронные сети. MATLAB 6. — М.: Диалог-Мифи, 2002.

25. Wasserman P.D. Advanced Method in Neural Computing. New York: Van Nostrand Reinhold, 1993.

26. Kohonen Т., Self-Organization and Associative Memory. 2nd ed. Berlin: Springer-Verlag, 1987.

27. Haykin S. Neural Network. A Comprehensive Foundation. — New York: Macmillan College Publishing Company, 1994. — 691 p.

28. Hornik K., Stinchcomb M. and White H. Multilayer Feedforward Networks are Universal Approximators II Neural Networks. — 1989. — TV 2. — P. 359 — 366.

29. Cybenko G. Approximators by superposition of sigmoidal functions // Math. Control, Signal Syst. — 1989. —N2. — P. 303 — 314.

30. Уоссерман Ф. Нейрокомпьютерная техника. — M.: Мир, 1992 — 240 с.

31. Stretch, Inc.: Products & Technology, 2004. -http://www. stretchinc. com/products.php

32. Николаевич В. С-ускоритель. // Компьютерра, 2004, №24.

33. Осовский С. Нейронные сети для обработки информации. — М.: Финансы и статистика, 2002.

34. Ивахненко А.Г. Самообучающиеся системы распознавания и автоматизированного управления. — Киев: Техника, 1969.

35. Nils J. Nilsson. Learning machines. New York: McGraw-Hill Book Company, 1965.

36. Препарата Ф., Шеймос M. Вычислительная геометрия: Введение. М.: Мир, 1989.

37. Терехов В.А., Ефимов Д.В., Тюкин И.Ю. Нейросетевые системы управления. Кн. 8: Учебное пособие для вузов / Общая редакция А.И. Галушкина. М.: ИПРЖР, 2002.

38. Linde Y., Buzo A., Gray R. An algorithm for vector quantizer design II IEEE Trans. Comm. 1980. Vol. 28. -P. 84 — 95.

39. Lansner J., Lehmann T. An analog CMOS chip set neural network with arbitrary topologies II Trans. Neural Networks, 1993. Vol. 4. - P. 441 — 444.

40. Chinrungrueng C., Sequin C.H. Optimal adaptive K-means algorithm with dynamic adjustment of learning rate II IEEE Trans. Neural Networks, 1995. -Vol. 6.-P. 157—169.

41. McColloch W. S., Pitts W.H. A logical calculus of ideas immanent in nervous activity //Bull. Math. Biophysics, 1943. Vol. 5- P. 115 — 119.

42. Сыромолотов E.H., Любимова М.И., Милова Т.Б. Основы прикладной математики. Том 1. М.: ВАХЗ, 1989.

43. Линник Ю.В. Метод наименьших квадратов и основы математико-статистической теории обработки наблюдений, 2 изд. — М.: 1962.

44. Минаев Ю.Н., Филимонова О.Ю. Бенамеур Лиес. Методы и алгоритмы решения задач идентификации и прогнозирования в условиях неопределенности в нейросетевом логическом базисе. М.: Горячая линия-Телеком, 2003.-205 с.

45. Марчук Г.И. Методы вычислительной математики. — М.: Наука,1962.

46. Растригин Л.А. Сравнение методов Гаусса, Монте-Карло и случайного поиска при решении систем линейных алгебраических уравнений. Сб. «Автоматика и вычислительная техника», вып. 7. Рига, Изд-во Латв. АН, 1964.

47. Демидович Б.П., Марон И.А., Основы вычислительной математики. — М.: Физмат, 1963. 660 с.

48. Бахвалов Н.С., Жидков Н.П., Кобельков Г.М. Численные методы. -М.: Лаборатория Базовых Знаний, 2001.

49. Завьялов Ю.С., Квасов Б.И., Мирошниченко В.Л. Методы сплайн-функций. — М.: Наука, 1980.

50. Стечкин С.Б., Субботин Ю.Н. Сплайны в вычислительной математике. — М.: Наука, 1976.

51. Бермант А.Ф., Араманович И.Г. Краткий курс математического анализа: Учебное пособие для втузов. М.: Паука, 1971.

52. Ракитин В.И., Первушин В.Е. Практическое руководство по методам вычислений с приложением программ для персональных компьютеров: Учеб. Пособие. — М.: ВШ, 1998.

53. National Science and Technology Research Center for Computation and Visualization of Geometric Structures (The Geometry Center), University of Minnesota. 1993. http://www.geom. umn. edu/software/qhull/

54. Мохов В.А., Ковалёв О.Ф. Адаптивный аппроксиматор. Труды Международных научно-технических конференций «Интеллектуальные системы {IEEE AIS'03)» и «Интеллектуальные САПР (CAD-2003)». Научное издание в 3-х томах. М.: Физмат, 2003, Т1. — с. 566 — 570.

55. Питге Н. XML за рекордное время. Пер. с англ. М.: Мир, 2000. - 444 с.

56. Гаврилова Т.А., Хорошевский В.Ф. Базы знаний интеллектуальных систем: Учебное пособие. СПБ.: Питер, 2000. - 384 с.

57. Semantic Web: роли XML и RDF И Открытые системы, 2001. N 9. -с. 41 —48.

58. Вендров А.М. Проектирование программного обеспечения экономических информационных систем. М.: Финансы и статистика, 2000. - 352с.

59. Бутомо И.Д., Дробницев Д.Ф., Питько А.Е. Методы распараллеливания алгоритмов и их реализация в вычислительных системах. —JL, 1980.

60. Одинцов И.О. Профессиональное программирование. Системный подход. — СПб.: БХВ-Петербург, 2002.

61. Панельная дискуссия по распределенной обработке. Национальная конференция по ЭВМ. Anaheim. Calif., June 1978.

62. Вейцман К. Распределенные системы мини- и микро-ЭВМ. — М.: Финансы и статисика, 1982.

63. Сантони Э. JavaSpaces основа будущих распределённых систем. — Computerworld, №40,1997.

64. Шумский С. Нейросетевые агенты в Интернете // Компьютерра, 2000.-7V4.-c. 20 — 25.

65. Зотов В.Ю. Проектирование цифровых устройств на основе ПЛИС фирмы XILINX в САПР WebPACK ICE. — M.: Горячая линия — Телеком, 2003. —624С.

66. Олифер В.Г., Олифер H.A. Сетевые операционные системы. — СПб.: Питер, 2001.

67. Головкин Б.А. Расчет характеристик и планирование параллельных вычислительных процессов. — М.: Радио и связь, 1983.

68. Реализация нейронных сетей на ПЛИС Xilinx. — Scan Engineering Telecom, декабрь 2000. http://www.setltd.com

69. Уэйкерли Дж. Ф. Проектирование цифровых устройств. М.: Постмаркет, 2002.

70. Стешенко В. Программируемые логические интегральные схемы: обзор архитектур и особенности применения // Схемотехника. 2000. — iV 1— 2. - с.2 — 4, 2001. -N1-2. - с.22 — 24.

71. Золотухо P. System Designer пакет для разработки устройств на основе Atmel FPSLIC. - // Chip News. 2001. - N 2. - с. 8 — 14.81 .FPSLIC STK594 User Guide. 2Ъ\9A-FPSLI-0H\2№ IM — Atmel Corporation, 2002.

72. Армстронг Дж. Р. Моделирование цифровых систем на языке VHDL. — М.: 2004.

73. Chiptuner.ru'. Серийные прошивки ВАЗ. 2005. http://www.chiptuning.ru

74. Chip Tuning PRO. Программа для настройки калибровок систем управления впрыском топлива GM ISFI-2S, BOSH Ml.5A, BOSH МР7.0, ЯНВАРЬ-4, ЯНВАРЬ-5.1, KS5.1, МИКАС 5.4, МИКАС 7.1. http://www.almisoft.ru

75. Данов Б.А., Титов Е.И. Электронное оборудование иностранных автомобилей: Системы управления двигателем. — М.: Транспорт, 1998.

76. Чижков Ю.П. Электронное оборудование автомобилей. — М.: Машиностроение, 2002.

77. Материалы информационного сервера Медицинского отдела Баро-центра г. Москвы, http://www.barocenter.ru

78. Лосев Я. И., Хитров Я. С., Грачев С. В. Патофизиология гипоксических состояний и адаптация организма к гипоксии: Учеб. пособие. — М., 1982.

79. Завод медицинской техники и товаров народного потребления Космического центра им. М.В. Хруничева (Медтехника и ТИП) http://www.zavodmt.ru

80. Руководство по гипербарической оксигенации / Под ред. С.Н. Ефуни. — М., 1986.

81. Жизневский Я.А. Основы инфузионной терапии: Справ.-практ. пособие. — Мн.: Выш. шк., 1994.

82. Покровский В.И. Домашняя медицинская энциклопедия. М.: Медицина, 1993.

83. Система гипербарическая одноместная БЛКС 301 М. Техническое описание и инструкция по эксплуатации. М.: НПО ЭКРАН, 1991.

84. ГОСТ Р 51316-99 «Бароаппараты одноместные медицинские стационарные. Общие технические требования», 1999.

85. Гипербарическая терапия в военно-медицинской практике / Под ред. Е. В. Ермакова. — М., 1986.

86. Планирование эксперимента // Математический энциклопедический словарь. — М.: Сов. энциклопедия, 1988. — 847 с.

87. Реклейтис Г., Рейвиндран А., Рэгсдел К. Оптимизация в технике: Пер. с англ. — М.: 1986.

88. Мохов В.А. «Исследователь 1.0» Формирование обучающей выборки для детерминированного построения искусственной нейронной сети. Свидетельство об отраслевой регистрации разработки № 4550 от 01.04.2005 г.

89. Мохов В.А. «Создатель 1.0» Детерминированное построение и оптимизация структуры искусственной нейронной сети. Свидетельство об отраслевой регистрации разработки № 4551 от 01.04.2005 г.

90. Мохов В.А. Расчёт обучающей выборки для детерминированного построения ИНС («Исследователь»). Свидетельство об официальной регистрации программы для ЭВМ № 2005610061 от 11.01.2004 г.

91. Листинг файла с исходным кодом программы «Исследователь»----------Процедура составления уравнения квадратичной функции------

92. A:=array(3.n+2,l.n): B:=array(3.n+2,1.1):for i from 3 to n+2 do: for j from 1 to n do:

93. AiJ.:=(Y1.-Y[l]r(X[lj]-X[2,j])/(Y[2]-Y[l])-(X[lj]-X[ij]): end do:

94. Bi,l.:=c[iHY1.-Y[l])*c[2]/(Y[2]-Y[l]): end do:

95. AA :=evalm( 1 /Matrix(n,n, A)) :-----------считаем Xo----------

96. Getcenterpoint := proc( Points, n )local i, j, CP, NewPoints;description "Процедура получения массива со средней точкой": CP:=array(l.n): for j from 1 to n do CP.]:=0: for i from 1 to n+1 do CP[j]:=CP[j]+Points[ij]:end do:1. CPj.:=CP[j]/(n+l):end do:

97. FiforsimpIex := proc( Points, n )description "Процедура вычисления Fi для полигона расчётной по моделиlocal i, j, FiPoints; FiPoints:=array(l .n+2): for i from 1 to n+2 do

98. FiPoints1. :=FiFunction(Pointsi, 1 ., Points[i,2]): end do: FiPoints: end proc:---------------------------------------------------------------------------Процедура вычисления площади полигона по Координатам----

99. Computation := proc( P, N )description "Вычисление ошибок":local X, Y, fl, f2, xmin, xmax, ymin, ymax, F, M, ts, pi, fn, fnl, xlsr, x2sr, flin, Eabssr, Eotn, w, py, pxl 1, pxl2, i;----------задаём начальные условия для передачи в процедуры

100. M:=evalf(abs(int(int(F, x=xmin.xmax), y=ymin.ymax)));print("MEPA отклонения ",evalf(M));-------Вычисляем S полигона pipl:=evalf(PloshadK(N,X,Y));-------Вычисляем среднюю погрешность для полигона

101. P:=[0.01,0.01., [0.1,0.1], [0.1,0.01]]; E:=Computation(P, 2); if E>0.05 then Spisok:=Twutr(P); end if;loop:=2: i:=l: k:=0: while i <= loop do k:=k+l:unassign('NS'): # очищаем переменную NS NS=.:

102. NS 1 :=NS[.,NewTR[ 1 ],NewTR[2]]; loop:=loop+l;unassign('Spisok'): Spisok:=NSl.; else i:=i+l; end if; end do:рпШС'Количество полигонов i-1);

103. Spisok.: # массив с данными для формирования искусственной нейронной сети1. Spisokl.:n:=linalgvectdim.(Spisok[l]):

104. Добавляем значение функции в списки координат для рисования unassign('tochkidlyarisovaniya'): tochkidlyarisovaniya:=.:for i from 1 to i-1 dounassign('element'): # очищаем переменную "element" element:=.:element:=[Spisok1.[l,l.,Spisok[i][l,2],

105. FiFunction(Spisok1. 1,1 .,Spisok[i] [1,2])], [Spisok[i][2,l],Spisok[i][2,2],

106. Отрисовка поверхности моделируемой функции PLOT3D(POLYGONS(tochkidlyarisovaniya.),

107. GHT(0,0,0.0,0.7,0.0), LIGHT( 100,45,0.7,0.0,0.0), LIGHT(100,-45,0.0,0.0,0.7), AMBIENTLIGHT(0.4,0.4,0.4), STYLE(PATCH),COLOR(ZIIUE), AXESSTYLE(BOX));

108. Листинги исходных текстов программ для реализации гипотетической модели ИНС на базе ПЛИС

109. Листинги файлов отчетов, сгенерированных пакетом Leonardo Spectrum

110. Отчет к программе №1 (последовательная обработка нейронов) *******************************************************

111. Cell: neiron View: neironarch Library: work *******************************************************1. Total accumulated area :

112. Number of Gate Equivalents : 101. Number of LUTs : 1051. Number of ibuf : 101. Number of obuf : 7

113. Cell: lpmaddft40 View: LPM Library: OPERATORS *******************************************************1. Total accumulated area :1. Number of LUTs : 41. Number of ports : 131. Number of nets : 01. Number of instances : 0

114. Number of references to this view : 4

115. Cell: 1pm add f t 4 1 View: LPM Library: OPERATORS1. Total accumulated area :1. Number of LUTs : 41. Number of ports : 131. Number of nets : 01. Number of instances : 0

116. Number of references to this view : 3

117. Cell: lpmaddft70 View: LPM Library: OPERATORS *******************************************************1. Total accumulated area :1. Number of LUTs : 71. Number of ports : 221. Number of nets : 01. Number of instances : 0

118. Number of references to this view : 3

119. Cell: lpmaddft42 View: LPM Library: OPERATORS *******************************************************1. Total accumulated area :1. Number of LUTs : 41. Number of ports : 131. Number of nets : 01. Number of instances : 0

120. Number of references to this view : 3

121. Cell: lpmsubft40 View: LPM Library: OPERATORS *******************************************************1. Total accumulated area :1. Number of LUTs : 41. Number of ports : 131. Number of nets : 01. Number of instances : 0

122. Number of references to this view : 5

123. Cell: lpmsubft80 View: LPM Library: OPERATORS1. Total accumulated area :1. Number of LUTs : 81. Number of ports : 251. Number of nets : 01. Number of instances : 0

124. Number of references to this view : 3

125. Cell: lpmsubft70 View: LPM Library: OPERATORS1. Total accumulated area :1. Number of LUTs : 71. Number of ports : 221. Number of nets : 01. Number of instances : 0

126. Number of references to this view : 31. Clock

127. Clock Frequency Report : Frequencywr rd1. NOT rd277 MHz1. N/A1. N/A1. Slack Table at End Points

128. Отчет к программе №2 (параллельная обработка нейронов)

129. Cell: neironl View: neironlarch Library: work it******************************************************1. Total accumulated area :

130. Number of Gate Equivalents : 221. Number of LUTs : 891. Number of ibuf : 101. Number of obuf : 7

131. Number of accumulated instances : 941. Number of ports : 171. Number of nets : 1411. Number of instances : 94

132. Equivalents Equivalents Equivalents1. Equivalents Equivalents

133. Cell: lpmaddft40 View: LPM Library: OPERATORS1. Total accumulated area :1. Number of LUTs : 41. Number of ports : 131. Number of nets : 01. Number of instances : 0

134. Number of references to this view : 4

135. Cell: lpmltf40 View: LPM Library: OPERATORS *******************************************************

136. Total accumulated area : Number of LUTs :1. Number of ports : 91. Number of nets : 01. Number of instances : 0

137. Number of references to this view : 3

138. Cell: lpmaddft4l View: LPM Library: OPERATORS *******************************************************1. Total accumulated area :1. Number of LUTs : 41. Number of ports : 131. Number of nets : 01. Number of instances : 0

139. Number of references to this view : 3

140. Cell: lpmaddft70 View: LPM Library: OPERATORS1. Total accumulated area :1. Number of LUTs : 71. Number of ports : 221. Number of nets : 01. Number of instances : 0

141. Number of references to this view : 3

142. Cell: lpmaddft42 View: LPM Library: OPERATORS *******************************************************1. Total accumulated area :1. Number of LUTs : 41. Number of ports : 131. Number of nets : 01. Number of instances : 0

143. Number of references to this view : 3

144. Cell: lpmsubft40 View: LPM Library: OPERATORS *******************************************************1. Total accumulated area :1. Number of LUTs : 41. Number of ports : 131. Number of nets : 01. Number of instances : 0

145. Number of references to this view : 3

146. Cell: lpmsubft80 View: LPM Library: OPERATORS1. Total accumulated area :1. Number of LUTs : 81. Number of ports : 251. Number of nets : 01. Number of instances : 0

147. Number of references to this view : 3+ + + + + + + + + + + + + * + + + + + + * + + * + + + * + + + + + + + + *

148. Cell: lpmsubft70 View: LPM Library: OPERATORS1. Total accumulated area :1. Number of LUTs : 71. Number of ports : 221. Number of nets : 01. Number of instances : 0

149. Number of references to this view : 3

150. Листинг файла с объектно-ориентированным описанием параметров ИПС, моделирующей поведение электромагнита в среде Matlabмодель магнита с 10-процентной погрешностью % массивы неповторяющихся координат вершин полигонов

151. Х=0.01 0.02125 0.026875 0.0325 0.04375 0.049375 0.055 0.060625 0.06625 0.071875 0.0775 0.083125 0.08875 0.094375 0.1.; Y=[0.01 0.015625 0.02125 0.0325 0.04375 0.055 0.0775 0.1];таблицы связей координат вершин и полигонов

152. Trk Trk Trk Trk Trk Trk Trk Trk Trk Trk Trk Trk Trk Trk Trk Trk Trk Trk Trk Trk Trk Trk Trk Trk Trk Trk Trk Trk Trk Trk Trk Trk Trk Trk Tr к10 11 1213

Обратите внимание, представленные выше научные тексты размещены для ознакомления и получены посредством распознавания оригинальных текстов диссертаций (OCR). В связи с чем, в них могут содержаться ошибки, связанные с несовершенством алгоритмов распознавания. В PDF файлах диссертаций и авторефератов, которые мы доставляем, подобных ошибок нет.