Вычислительные исследования системных и частных принципов информационных процессов в рекуррентных нейронных системах тема диссертации и автореферата по ВАК РФ 03.01.02, кандидат наук Соловьева Ксения Павловна
- Специальность ВАК РФ03.01.02
- Количество страниц 152
Оглавление диссертации кандидат наук Соловьева Ксения Павловна
Оглавление
Введение
1. ГЛАВА 1. Современное состояние проблемы моделирования фундаментальных принципов информационных процессов работы мозга. Рекуррентные нейронные системы (обзор литературы)
1.1.История и методология изучения механизмов работы мозга
1.2. Внутриклеточный кальций и нейронные генераторы паттернов
1.2.1. Нервный импульс
1.2.2. Вспышки повышенной концентрации кальция внутри клетки
1.2.3. История изучения нейронных генераторов паттернов и постановка задачи исследования CICR-зависимых генераторов
1.3. Точечные и непрерывные аттракторы в нейронных сетях
1.3.1. Аттракторные состояния в нейронных сетях
1.3.2. Волны активности в нейронных сетях с непрерывными аттракторами
1.4. Самоорганизующиеся отображения (сети Кохонена)
1.5.Принципы приспособления поведения организмов к среде обитания и работы И.П. Павлова
2. ГЛАВА 2. Исследование функциональных возможностей взаимодействия возбуждения поверхностной мембраны нейрона с зависящей от эндоплазматического ретикулума динамикой внутриклеточного кальция
2.1.Модель генерации пачечной ритмики нейронами на основе внутриклеточной динамики концентрации кальция
2.1.1. Основные уравнения
2.1.2. Пейсмейкерная генерация нейрона
2.1.3. Зависимость характера картины электрической активности нейрона от величины возбуждающего сигнала
2.1.4. Зависимость характера картины электрической активности нейрона от уровня величины шума возбуждающего сигнала
2.1.5. Зависимость характера картины электрической активности нейрона от параметров каналов мембраны ЭР
2.2. Нейросетевая модель дыхательной ритмики с учетом процессов, связанных с эндоплазматическим ретикулумом
2.2.1. Сетевая конструкция
2.2.2. Моделирование генератора дыхательного ритма на основе пейсмейкерных нейронов с короткими пачками импульсов
2.2.3. Моделирование генератора дыхательного ритма на основе пейсмейкерных нейронов с длинными пачками импульсов
2.2.4. Моделирование генератора дыхательного ритма на основе пейсмейкерных нейронов с короткими пачками импульсов и уменьшенной проводимостью мембраны ЭР
2.2.5. Моделирование генератора дыхательного ритма на основе пейсмейкерных нейронов при воздействии блокатора кальциевой проводимости ЭР
2.3.Заключение к главе
3. ГЛАВА 3. Разработка схем создания аттракторных нейронных сетей и исследование методов повышения их информационной нагрузки
3.1. Модель сети бинарных нейронов
3.2. Метод молекулярных меток
3.3. Методы изучения аттрактора нейронной сети
3.4.Зависимость максимальной длины непрерывного аттрактора М от числа
нейронов сети N
3.5. Определение точной длины непрерывного аттрактора при помощи графика ¿-рЫ
3.6. Аналитическая оценка эффективности нейронных аттракторных сетей с врожденными связями
3.6.1. Длина одномерного аттрактора, сформированного при помощи
метода молекулярных меток
3.7.Заключение к главе
ГЛАВА 4. Формирование самоорганизующихся отображений сенсорных сигналов на непрерывные нейросетевые аттракторы
4.1. Математическая модель системы
4.1.1. Обучение
4.1.2. Тестирование
4.2. Результаты имитационного моделирования
4.2.1. Сходимость процесса обучения
4.2.2. Свойство масштабируемости представления отдельных участков отображаемого сигнала
4.2.3. Свойство устойчивости к шуму отображения
4.2.4. Свойство связности отображения в сетях, содержащих непрерывный аттрактор из нескольких компонент связности
4.3.Заключение к главе
4. ГЛАВА 5. Общие принципы функционирования нейроподобных систем
5.1.Deep Learning и Back Propagation
5.2.Условные рефлексы, синапс Хебба, инструментальный рефлекс, обучение с подкреплением. Принцип Павлова
5.3. Следствия Принципа Павлова
5.4.Другие попытки строить системы Deep Learning без обратного распространения ошибок
5.5. Один пример конструкции, использующей Принцип Павлова
5.6.Заключение к главе
Заключение
Выводы
Список сокращений и обозначений
Список литературы
Приложение 1. Параметры нейронов, генерирующие в отсутствие торможения последовательности пачек с длительностью пачки немного
меньшей длительности паузы
Приложение 2. Программа для расчёта мембранных потенциалов
Введение
Рекомендованный список диссертаций по специальности «Биофизика», 03.01.02 шифр ВАК
Механизмы кальциевой сигнализации нейронов и астроцитов при фотодинамическом воздействии радахлорина2016 год, кандидат наук Негинская, Мария Александровна
Эффекты мультистабильной динамики в системах взаимодействующих биологических осцилляторов2015 год, кандидат наук Гордлеева, Сусанна Юрьевна
Индивидуальная и коллективная динамика возбудимых элементов с импульсными адаптивными связями2024 год, кандидат наук Ковалева Наталья Сергеевна
Фазовая динамика импульсных сигналов активности в моделях обработки информации в нейрональных и глиальных сетях мозга2010 год, кандидат физико-математических наук Пимашкин, Алексей Сергеевич
Регуляция активности нервно-мышечных синапсов мыши внутриклеточным депонированным кальцием, мобилизуемым кофеином и рианодином1999 год, кандидат биологических наук Сурова, Наталья Владимировна
Введение диссертации (часть автореферата) на тему «Вычислительные исследования системных и частных принципов информационных процессов в рекуррентных нейронных системах»
Актуальность работы
Механизмы работы мозга долгое время считались самой сложной проблемой естествознания. До сих пор даже в специальной литературе встречаются утверждения типа: «Чем больше мы знаем о мозге, тем меньше понимаем, как он работает» [89]. На фоне такого неконструктивного пессимизма неожиданно важную роль в прогрессе науки о мозге сыграли успехи в построении систем искусственного интеллекта (ИИ).
До 2012 г. прогресс в улучшении характеристик качества функционирования систем ИИ был очень медленным. Резкий скачок в улучшении этих характеристик произошел в связи с переходом от строго логических систем ИИ к системам, основанным на многослойных конструкциях нейроподобных элементов. Это явление часто называют революцией глубокого обучения [140].
В результате описанного прогресса технические конструкции за короткое время в 2012-2018 гг. стали проявлять всё более и более сложные интеллектуальные способности. На начальном этапе DL революции прогресс обеспечивался применением метода обратного распространения ошибок. Про этот метод с самого начала было понятно, что он не может быть реализован в биологических нейронных сетях [106]. Другая линия разработки нейронных систем была связана с нейронными моделями конкретных структур мозга: мозжечка, гиппокампа, коры больших полушарий. Эти модели обеспечивают решения сравнительно небольшого спектра задач переработки информации.
Сложилась ситуация, когда казалось, что для понимания естественных нейронных систем необходимо открытие каких-то новых принципов. Однако, в ходе работ, в которых делались попытки с одной стороны уйти от механизмов обратного распространения ошибок, а с другой стороны делались попытки реализации более сложных функций на классических нейронных конструкциях, было обнаружено, что объединение предыдущих подходов и использование
высокопроизводительных параллельных систем обработки информации представляются необходимым и, вероятно, достаточным для понимания и воспроизведения функций нейронных систем. Настоящая работа посвящена проработке отдельных элементов и подсистем нейронных конструкций с целью получения новых архитектурных элементов нейроморфного интеллекта, основанных на принципах работы мозга.
За последние три года системы искусственного интеллекта стали применяться практически во всех технологических процессах и используются в устройствах телекоммуникации и индустрии развлечения и продолжают проникать практически во все сферы деятельности человека. Это быстрое изменение техногенной среды в первую очередь обусловлено применением для систем искусственного интеллекта нейроподобных конструкций.
Таким образом, задача выяснения общих принципов функционирования нейронных систем, составляющая ядро настоящей работы, является остро актуальной.
Объект исследования
Объектом исследования являются модели рекуррентных нейронных систем. Во второй главе анализ ведется с детализацией на уровне ионных каналов, в главах с третью по пятую - на уровне формальных нейронов.
Методы исследования
Во всех разделах работы использовались методы, соответствующие характеру поставленных задач. В главе 2 это - детальные модели типа Ходжкина-Хаксли с учётом динамики проницаемости ионных каналов, в главах 3, 4, 5 - бинарные нейроны типа Мак-Каллокка-Питтса). Соответственно, в главе
2 использовался аппарат обыкновенных дифференциальных уравнений, в главе
3 - комбинаторные методы аналитических оценок. Кроме того, для реализации разработанных исследовательских моделей в имитационных экспериментах применялось программирование в среде МаЙаЬ.
Цель и задачи работы
Целью диссертационной работы является исследование внутренней динамики и информационных процессов в нейронных системах с рекуррентным взаимодействием на физиологически-адекватных для поставленных задач моделях нейронов и нейронных сетей.
Для достижения поставленной цели в ходе работы решались следующие задачи:
1. Исследование условий возникновения в детальной нейронной модели режима пачечных пейсмекеров за счет взаимодействия возбуждения поверхностной мембраны нейрона с зависящей от эндоплазматического ретикулума динамикой концентрации внутриклеточного кальция и исследование нейронных сетей, обеспечивающих системную генерацию паттернов пачечной ритмики (по типу центрального генератора дыхательной ритмики).
2. Разработка схем создания аттракторных нейронных сетей и анализ их возможной информационной нагрузки.
3. Исследование свойств самоорганизующегося отображения активности сенсоров в состояния рекуррентной нейронной сети, содержащей непрерывный одномерный («бугорковый») аттрактор.
4. Формулировка общего принципа работы нейронных систем, для понимания причин эффективности информационно-вычислительных конструкций, состоящих из нейроподобных элементов, и демонстрация возможности применения сформулированного принципа для предложения новых эффективных нейроморфных архитектур аналогичных биологическим прототипам.
Новизна научной работы
1. Впервые исследована модель функционирования пейсмекерных нейронов и взаимотормозящих нейронных пулов на основе механизма кальций-зависимого высвобождения кальция (Ca++- induced Ca++ release, CICR) из
эндоплазматического ретикулума нейронов на уровне динамики проницаемости ионных каналов.
2. Впервые предложена схема создания аттракторных нейронных сетей, содержащая непрерывные одномерные («бугорковые») аттракторы с числом состояний аттрактора, значительно превосходящим число нейронов в сети и произведена вычислительная и аналитическая оценка информационной ёмкости системы.
3. Впервые исследованы свойства самоорганизующегося отображения активности рецепторов в состояния рекуррентной нейронной сети, содержащей непрерывный одномерный («бугорковый») аттрактор.
4. Впервые сформулирован общий принцип работы нейронных систем, объясняющий эффективность информационно-вычислительных конструкций, состоящих из нейроподобных элементов, названный Принципом Павлова (ПП), и на нейронной вычислительной модели продемонстрирована практическая применимость ПП для создания новых типов сетей глубокого обучения.
Практическая значимость и реализация результатов работы
Полученные данные вносят существенный вклад в понимание механизмов работы мозга, в том числе и за счёт расширения арсенала нейронных моделей, которые могут быть применены при интерпретации экспериментальных данных. На основе разработанных моделей предложены новые варианты искусственных нейронных сетей глубокого обучения. Результаты диссертационного исследования использованы при выполнении НИР и НИОКР по темам:
1. Грант РФФИ 13-07-01004 «Построение и анализ нейронных сетей с нульмерными, одномерными и многомерными аттракторами», руководитель - д.ф.-м.н., проф. Дунин-Барковский В.Л. 2012-2014 гг. (на базе НИИСИ РАН);
2. Грант РНФ 14-19-01698 "Создание функциональных прототипов электронных синапсов и построение на их основе модели нейроморфной
вычислительной системы", руководитель - к.т.н. Зенкевич А.В. 2014 г. (на базе МФТИ(ГУ));
3. Грант РНФ 14-18-03773 "Одаренность: когнитивные процессы и модели социо-культурной реализации", руководитель - член-корр. РАН Ушаков Д.В. (на базе ИП РАН);
4. Грант РФФИ 16-07-01059 «Вычислительное исследование системных и частных принципов информационной архитектуры нейронных систем», руководитель - д.ф.-м.н., проф. Дунин-Барковский В.Л. 2015-2017 гг. (на базе НИИСИ РАН);
5. Грант фонда ФГБУ «Фонд содействия развитию малых форм предприятий в научно-технической сфере» по теме "Разработка прототипа программно-аппаратного модуля для обучения вхождению в эффективные психофизиологические состояния и контролю над их сохранением на основе нейрообратной связи." Заявка № НТИ-26474, Проект № 26070, грантополучатель ООО "Образовательные технологии";
6. Грант фонда ФГБУ «Фонд содействия развитию малых форм предприятий в научно-технической сфере» по теме "Разработка прототипа аппаратно-программного модуля нейроинтерфейсного взаимодействия с виртуальной реальностью". Заявка № ЦМИТ-Н-16807, Проект 22854, Грантополучатель ООО «Системы виртуальной реальности»
(итого, 6 Российских грантов).
Апробация работы
Результаты работы представлялись на Всероссийских и международных
научных конференциях, и семинарах, в том числе следующих:
- Научный семинар Barrow Neurological Institute, (Phoenix, USA, 2012);
- Международный конгресс "Global Future 2045", (Линкольн-центр в Нью-Йорке, США, 2013);
- Московская осенняя психологическая школа студентов, аспирантов и молодых учёных, (Москва, 2013);
- Научный семинар Института нейроинформатики Университета и Политехнического института Цюриха INI-402-0826-00L, (Цюрих, декабрь 2014);
- 16-я, 18-я и 20-я Международные конференции «Нейроинформатика» (г. Москва, Россия в 2014, 2016 и в 2018 гг.);
- 3-я и 4-я Всероссийские с международным участием конференции "Гиппокамп и память: норма и патология", (Пущино, 2015 и 2018 гг.);
- Международная конференция FIERCES on BICA. First International Early Research Career Enhancement School on Biologically Inspired Cognitive Architectures, (Москва, 2016);
- Международная конференция BICA - 2017, (Москва, гостиница «Балчуг»,
2017);
- Научный семинар НИИ молекулярной электроники http://www.niime.ru/press-center/news/440-nauchnyy-seminar-neyromorfnye-sistemy-i-ikh-realizatsiya-proshel-v-niime-/, НИИМЭ, (Москва, 24 января
2018);
- Международная конференция Computational Intelligence in Bioinformatics and Computational Biology 2018 (Saint Louis, Missouri, USA, 31 мая - 2 июня 2018);
- Международная конференция 26th Nonlinear Dynamics of Electronic Systems Conference (Acireale, Italy, 11- 13 июня 2018);
- Международная конференция Volga Neuroscience 2018 (Нижний Новгород - Самара - Нижний Новгород, 22 - 27 июля 2018)
(итого 15 научных форумов).
Публикации
По теме диссертации опубликовано 15 печатных работ, среди них: 5 в журналах, рекомендованных ВАК, 4 в полнотекстовых сборниках научных трудов Всероссийских и международных научно-технических конференций, 4 в
тезисах международных научных конференций, 4 в международных журналах, индексированных в базах данных Scopus и WoS.
Основные положения диссертационного исследования, выносимые на защиту:
1. Разработана детальная модель функционирования пейсмекерных нейронов и взаимотормозящих нейронных пулов на основе кальций-зависимого высвобождения кальция из эндоплазматического ретикулума нейронов на уровне динамики проницаемости ионных каналов.
2. Предложена схема создания аттракторных нейронных сетей, содержащая непрерывные одномерные («бугорковые») аттракторы с числом состояний аттрактора, значительно превосходящей число нейронов в сети. На основе вычислительных экспериментов и аналитической оценки установлено, что число состояний непрерывного («бугоркового») аттрактора в рекуррентных нейронных системах растёт как ~№. Численная оценка константы пропорциональности даёт величины порядка 1000N для N=10A6.
3. Предложена схема самоорганизующегося отображения активности рецепторов в состояния рекуррентной нейронной сети, содержащей непрерывный одномерный («бугорковый») аттрактор. Данное отображение обладает свойствами топологической связности, масштабируемости и помехоустойчивости.
4. Сформулирован общий принцип работы нейронных систем, объясняющий эффективность информационно-вычислительных конструкций, состоящих из нейроподобных элементов и на основе этого принципа предложен новый вариант искусственной нейронной сети глубокого обучения.
Структура и объем диссертации
Работа состоит из введения, пяти глав, заключения, списка сокращений, и списка литературы. Общее количество страниц: 150. Работа содержит 66 иллюстраций, 3 таблицы и 2 приложения; список литературы включает 146 наименований.
Краткое содержание работы
Во введении обоснована актуальность темы диссертационной работы, определена цель и сформулированы задачи исследования. Раскрыта новизна полученных результатов, их научная и практическая ценность. Представлена краткая аннотация всех глав диссертации.
Первая глава посвящена обзору литературы по фундаментальным принципам информационных процессов работы мозга и искусственных нейронных систем в контексте реверберационных нейронных процессов и рекуррентных нейронных систем.
Во второй главе проведено исследование функциональных возможностей взаимодействия возбуждения поверхностной мембраны нейрона с зависящей от эндоплазматического ретикулума динамикой внутриклеточного кальция; приведено математическое описание единичных моделей нейрона и синапса и нейронной сети дыхательных нейронов.
В первом подразделе рассмотрена детальная (на уровне нейронных каналов) точечная модель единичного пейсмейкерного дыхательного нейрона (модель генерации пачечной ритмики), основанная на взаимодействии каналов внешней мембраны нейронов и динамики внутриклеточной концентрации кальция, связанной с эндоплазматическим ретикулумом. Помимо основной клеточной мембраны внутри клетки имеются мембраны, ограничивающие внутреннее пространство эндоплазматического ретикулума (ЭР). В модели считаем, что мембрана ЭР также описывается единым мембранным потенциалом (не совпадающим с мембранным потенциалом основной клеточной мембраны). Изменения проводимостей описываются уравнениями типа Ходжкина - Хаксли.
Исследована зависимость характера картины электрической активности нейрона от величины постоянного возбуждающего внешнего входного сигнала, а также от уровня величины входного шума.
Обнаружен и исследован диапазон величины внешнего входного сигнала, в котором нейрон является пачечным пейсмейкером. Исследована также
зависимость характера картины электрической активности нейрона от параметров каналов мембраны ЭР.
Во втором подразделе второй главы исследуется нейросетевая модель дыхательной ритмики, построенная на основе моделей нейронов, изученных в первом подразделе. Главными элементами дыхательного центра являются нейроны, разделённые на два множества (пула) - нейроны вдоха и выдоха. Нейроны каждого множества генерируют импульсы, дающие вклады, соответственно, в сигналы вдоха и выдоха. Сигнал каждого типа (вдоха и выдоха) имеет вид почти периодических пачек импульсов. Число импульсов в пачке (или средняя частота импульсов в пачке) определяет интенсивность сигнала, а частота пачек определяет частоту дыхания. Между нейронами вдоха с одной стороны и нейронами выдоха с другой стороны установлены взаимно-тормозящие связи. Нейроны каждого из пулов не связаны между собой. Кроме того, на все нейроны поступает возбуждающий сигнал от внешнего источника.
В главе подробно рассматриваются режимы работы отдельных нейронов и ритмические режимы работы всей нейронной сети.
Третья глава посвящена исследованию одного из вероятных механизмов преставления непрерывных величин в нервной системе - непрерывным («бугорковым») аттракторам. Рассматриваются вопросы формирования связей нейронных сетей, содержащих непрерывные аттракторы, и их информационной емкости. Предложена схема создания «предформированных» аттракторных сетей с длиной непрерывного аттрактора, в несколько раз превышающего число нейронов в сети, обладающая физиологическим правдоподобием.
Модельная сеть представляет собой N связанных друг с другом пороговых бинарных нейронов Мак-Каллока-Питтса. Возбуждающие связи между нейронами формируются с помощью механизма «молекулярных меток». Для любых двух меток определено расстояние между ними, таким образом, что все метки можно расположить по кольцу, так что расстояние между любыми двумя метками равно минимальному числу других меток, расположенных между данными метками плюс единица. Число всех меток - М. Метки случайно (с
определенными ограничениями) распределяются между нейронами поровну, в среднем по M/N меток в каждом. Между нейронами, у которых есть близкие метки (с расстоянием меньше d) образуются положительные связи, равные единице, в противном случае отрицательные, равные -а. В такой нейронной сети имеется множество устойчивых состояний активности. Для изучения структуры этого множества используется вычислительный эксперимент по «динамическому методу» - когда к существующему закону динамики добавляется еще один закон динамики, благодаря которому сеть не может долго задерживаться в любом из своих устойчивых состояний, а вынуждена переходить в соседнее устойчивое состояние (механизм утомления).
Для визуализации состояний нейронной сети во времени используется абсолютная развертка и относительная развертка (L-plot [84]). И в том, и в другом случае активность сети представляется двумерным «ковриком», цвет точек которого кодирует расстояние между определенными парами состояний, позволяя качественно оценить динамику процессов в нейронной сети.
В ходе вычислительных экспериментов была исследована зависимость относительной максимальной длины непрерывного аттрактора k=M/N от числа нейронов в сети N.
Кроме того, была получена аналитическая оценка максимальной длины непрерывного аттрактора.
В четвертой главе исследуется простая модельная нейронная система, в которой осуществляется самоорганизующееся отображение многомерных сенсорных сигналов R-мерного пространства (где R - количество сенсоров) на состояния сети из N взаимодействующих нейронов. Рекуррентная сеть из N взаимодействующих нейронов обладала одномерным непрерывным аттрактором («бугорковый аттрактор», связи между нейронами сети выбирались по методу, представленному в главе 3). Модельная система состоит из двух связанных между собой частей, условно называемых сенсоры и нейроны рекуррентной сети (или просто «нейроны»).
Состояние множества сенсоров характеризуется ^-мерным вектором V, с вещественными координатами в диапазоне от нуля до единицы. Сенсоры между собой не связаны. Каждый сенсор связан с каждым нейроном рекуррентной сети. Матрица связей сенсоров с нейронами есть_,Щ N х Я).
Конструкция работает в режимах обучения и тестирования. Обучение системы состоит в многократном последовательном повторении следующей процедуры:
1. Подаётся вход на сенсоры V. В каждый момент выбирается случайно и равновероятно действительное число ^ в полуинтервале [0,1). Возбуждения сенсоров в точках \ = {\,2,...К) при этом определяются значениями «Гауссова» источника возбуждения единичной амплитуды, находящегося в точке ^ кольца сенсоров.
2. Изначально активность всех нейронов рекуррентной сети равна нулю. Под воздействием сигнала на рецепторах, в рекуррентной нейронной сети запускается асинхронная динамика, приводящая сеть в одно из ее устойчивых состояний.
3. Для всех нейронов, активных в данной точке аттрактора, связи со всеми рецепторами изменяются по правилу Хебба: = \¥;П + п((ХУ7 )г - ХУ ), где \ - номер нейрона, \¥,п - строка матрицы связей нейронов с рецепторами, соответствующая /-му нейрону, V - сигнал на рецепторах, X - вектор установившегося состояния в сети нейронов и п - коэффициент обучения. В результате имитационного моделирования было выявлено, что при
значении параметра ^ = ^ /N = & /Я , 01 - ц<0 3 отображение сходится.
В вычислительных экспериментах показано, что данная конструкция обладает следующими свойствами. 1. Свойство масштабируемости представления отдельных участков отображаемого сигнала; 2. Устойчивость отображения к шуму на выходе сенсоров; 3. Свойство связности отображения в сетях, содержащих непрерывный аттрактор из нескольких компонент связности.
В пятой главе формулируется общий принцип работы нейронных систем («Принцип Павлова» (1111)), который делает понятным эффективность информационно-вычислительных конструкций, состоящих из нейроподобных элементов, на основе обобщения всей совокупности экспериментальных данных об условных и инструментальных рефлексах и данных вычислительного моделирования адаптивных нейронных систем. Приводится пример конструкции, использующей ПП. Исследуется решение классической задачи -обучение нейронной сети тому, является ли сигнал на входе нейронной сети симметричным относительно центральной линии.
В Заключении обсуждается значение полученных в работе результатов для решения смежных фундаментальных и прикладных задач нейроисследований и искусственного интеллекта.
Приведен список используемых сокращений и обозначений.
1. ГЛАВА 1. Современное состояние проблемы моделирования фундаментальных принципов информационных процессов работы мозга. Рекуррентные нейронные системы (обзор
литературы)
1.1. История и методология изучения механизмов работы
мозга
«Революция глубокого обучения» и связанные с ней задачи и проблемы, в кругу которых и данная диссертация, заставляет, хотя бы вкратце, взглянуть на историю всей сферы нейронаук и нейротехнологий. С такого краткого очерка мы и начнём данную главу.
Попытки изучения человеком собственного мозга, поведения, разума начались очень давно. Археологи обнаружили следы первых, притом успешных, трепанаций черепа, датируемых 8 тысячелетием до н.э. [141]. В древнеегипетском т. н. «Папирусе Эдвина Смита» (16 век до н. э.) рассматриваются 48 травматических случаев. Он содержит первое известное описание черепных швов, мозговой оболочки, внешней поверхности мозга, спинномозговой жидкости и внутричерепных пульсаций [63]. В первом древнегреческом медицинском трактате Алкмеона Кротонского «О природе» (5 век до н.э.) впервые рассматриваются теория ощущений и психология. Алкмеон помещал источник познания и мышления не в сердце, а в мозг (что впоследствии было отвергнуто Аристотелем). «Отец анатомии» Герофил совместно с Эрасиастом оставили нам первые описания мозжечка и других отделов мозга, а также кровеносной системы (335 — 280 г.г. до н. э.). Римский хирург Гален (ок.130-217 гг.) показал исчезновение чувствительности всех частей тела ниже места поперечного разреза спинного мозга. Также он описал четверохолмие среднего мозга, семь пар черепномозговых нервов и блуждающий нерв [88].
Следующий ряд открытий в анатомии мозга был сделан к 18 веку. Здесь стоит отметить Андре Везалиуса (1514-1564 гг.), который рассмотрел эпифиз и стриатум. Джулио Чезаре Аранци в 1564 г. описал и дал название гиппокампу.
Констанцо Варолио в 1573г. открыл структуру заднего мозга, которую теперь так и называют - Варолиев мост. В 1609 г. Джулио Кессерио описывает мамилярные тела. Основоположником физиологии мозга считают Вильяма Гарвея (известен своей теорией кровообращения), который в 1627 г. показал роль мозга лягушки в процессе движения. В 1664 г. Жан Шваммердам инициировал сокращение мышцы лягушки путём механического воздействия на нерв. А в 1791 году Луиджи Гальвани опубликовал работу по электрической стимуляции нерва лягушки.
Открытие нейронов (1836) сделано Габриелем Густавом Валентином, учеником Иоганна Евангелиста Пуркинье. Тот, в свою очередь, изучал клетки и волокна мозжечка. В 1840 г. Жюль Байлерже первый обратил внимание, что кора головного мозга разделена на 6 слоев, которые впервые были зарисованы Ремаком в 1844 г.
В середине 19 века произошел известный инцидент с Финеасом Гейджем, который лишился большой части лобной доли левого полушария. И хотя он довольно быстро оправился, было отмечены радикальные изменения в его привычках, навыках и поведении в обществе. Его друзья перестали узнавать в нем «прежнего Гейджа». Этот случай послужил мощным свидетельством зависимости поведения от структур мозга и усилил интерес к их изучению [156].
В 1863 г. выдающийся русский ученый Иван Михаилович Сеченов публикует работу «Рефлексы головного мозга» [25], которая произвела сильное впечатление на современников. В ней Сеченов категорически отверг идеалистическое трактование психики человека, как особого духовного начала (что велось еще с труда Аристотеля «О душе») и предложил изучать ее теми же методами, которые применяются при изучении «телесной» деятельности. Многим тогда это показалось проявлением «крайнего материализма».
В 1870 английский невролог Джексон Джон Хьюлингс описывает двигательные центры коры, а в 1874 Роберт Бартлоу впервые применяет электроды для стимулирования мозга. Также, в 1874 г. киевский профессор Владимир Алексеевич Бец описал гигантские пирамидальные нейроны моторной
коры головного мозга, названные впоследствии его именем [60]. В 1873 г. Камилло Гольджи изобретает метод окраски отдельных нейронов [68]. Сам термин «нейрон» ввел Генрих Вильгельм Вальдейер в 1891г., а термин «синапс» впервые использовал первооткрыватель синаптических связей Чарльз Скотт Шеррингтон в 1897 г.
В 1885 г. российский физиолог Николай Александрович Миславский защитил докторскую диссертацию «О дыхательном центре» (открытом Жюльеном де Галуа в 1811 г.), где уточнил его локализацию, функциональную организацию, рефлекторный характер ритмической деятельности и влияние «высших» отделов мозга на дыхание.
Предметом исследований данной диссертации являются принципы обработки информации в рекуррентных нейронных системах. Здесь рекуррентность трактуется в широком смысле слова, как способность использовать выход системы или отдельных ее частей в продолжающемся функционировании той же системы. Среди первых известных людям рекуррентных систем можно назвать водяную мельницу: поворот ее колеса подставляет под поток воды очередную лопасть, и так - по кругу. Другим, правда очень общим, примером рекуррентной системы может служить стадо животных или группа людей. И те, и другие в процессе жизнедеятельности действуют друг на друга, определяя тем самым общую динамику системы. Попутно заметим, что вероятно основное качественное различие между этими системами состоит в скорости обмена информации между индивидуумами: у людей эта функция реализуется в первую очередь речью, использование которой (скажем, в течение суток) на несколько порядков величин превышает известные возможности информационного обмена любых животных. Мы не будем углубляться далее в общие и абстрактные проблемы рекуррентных конструкций, ограничившись данными вводными замечаниями. Стоит лишь ещё отметить, что место, занимаемое решаемыми в диссертации задачами, в системно-теоретическом смысле относится к области синергетики [2, 32].
Похожие диссертационные работы по специальности «Биофизика», 03.01.02 шифр ВАК
Синаптические механизмы взаимодействия эндоплазматического ретикулума и митохондрий нейронов гиппокампа в норме и при болезни Альцгеймера2024 год, кандидат наук Кушнирёва Лилия Александровна
Механизм нейротоксичности β-Амилоида2014 год, кандидат наук Абрамов, Андрей Юрьевич
Участие ионов кальция в выживании и смерти нейронов и глиальных клеток после аксотомии2021 год, кандидат наук Хайтин Андрей Михайлович
Механизмы обратимой метаболической депрессии и гибели гепатоцитов миноги речной (Lampetra fluviatilis L.) в период преднерестовой миграции2011 год, кандидат биологических наук Коновалова, Светлана Александровна
Кальциевые каналы низкой проводимости в плазматической мембране макрофагов: Активация инозитол (1,4,5)-трифосфатом1998 год, кандидат биологических наук Семенова, Светлана Борисовна
Список литературы диссертационного исследования кандидат наук Соловьева Ксения Павловна, 2019 год
Список литературы
1. Арутюнова Л.Р., В.Л. Дунин-Барковский, Л.М.Чайлахян. Моделирование роли С1- каналов в перемещении Са++ через мембрану эндоплазматического ретикулума. - //ДАН, 2006, т. 409, № 2: C. 261-265.
2. Аршинов В.И. Синергетика как феномен постнеклассической науки. М. Ит философии РАН, 1999, 203 стр.
3. Борисюк Г. Н., Р. М. Борисюк, Я. Б. Казанович, Г. Р. Иваницкий Модели динамики нейронной активности при обработке информации мозгом — итоги "десятилетия" //УФН, 172:10 (2002), 1189-1214
4. Борисюк Г. Н., Р. М. Борисюк, Я. Б. Казанович, Т. Б. Лузянина, Т. С. Турова, Г. С. Цымбалюк Осцилляторные нейронные сети. Математические результаты и приложения //Матем. Моделирование, 4:1 (1992), 3-43
5. Воронин Л.Л. Анализ пластических свойств центральной нервной системы. Тбилиси, Мецниереба, 1982б 188 с.
6. Гиркин С.В., Манкевич А.В. Классификация объектов на основе нейронных сетей с глубоким обучением. О механизме развития когнитивного пространства студентов в процессе математической подготовки в современном университете. - Прикладные исследования и разработки ART 2016 (Труды Московского технологического института), сс. 78-80.
7. Дунин-Барковский В.Л. Бугорковые аттракторы и понимание механизмов мозга. // Труды конференции «Нелинейная динамика в когнитивных исследованиях - 2011», ИПФ РАН, Нижний Новгород, 2011, сс. 53-56.
8. Дунин-Барковский В.Л. Информационные процессы в нейронных структурах. М.: Наука, 1978.
9. Дунин-Барковский В.Л. К вопросу об обратном конструировании мозга. - // В кн.: Глобальное будущее 2045. Конвергентные технологии и трансгуманистическая эволюция. - М.: изд-во МБА, 2013, С. 150-157
10. Дунин-Барковский В.Л. Колебания уровня активности в простой замкнутой цепи нейронов// Биофизика 15, №2 374-378 (1970).
11. Дунин-Барковский В.Л. Нейроинформатика в России и мире. - //Мозг: фундаментальные и прикладные проблемы: научная сессия общего собрания РАН. Тез.докл.: М.: изд-во Наука, 2010, С. 220 - 223.
12. Дунин-Барковский В.Л. Нейронные схемы ассоциативной памяти. - //В кн.: Моделирование возбудимых структур. Пущино, НИВЦ АН СССР, 1975, С. 90-141.
13. Дунин-Барковский В.Л., В.Б. Котов. Теоретические, модельные и экспериментальные исследования нейронного генератора дыхательной ритмики. - //Фундаментальные науки - медицине. Тезисы докладов на конференциях и семинарах по научным направлениям Программы в 2010 году. М.: Фирма «Слово», 2010. (304 с.) С. 179-181.
14. Дунин-Барковский В.Л., Карандашев Я.М., Соловьева К.П. Об архитектуре вычислительных процессов в мозге. - Труды НИИСИ, 2013, т. 3(2), сс. 4349.
15. Дунин-Барковский В.Л., Котов В.Б., И. Смирнитская, А. Жуков. Элементы обратной инженерии нейронных систем на уровне базовых информационных процессов. - //Фундаментальные науки - медицине. Тезисы докладов на конференциях и семинарах по научным направлениям Программы в 2011 году. М.: Фирма «Слово», 2011. (334 с.) С. 209-211.
16. Емельянова Т. О механизме развития когнитивного пространства студентов в процессе математической подготовки в современном университете. -Науковi записки. Серiя педагопка, 2017, № , сс. 193-198.
17. Ивахненко А. Г., Лапа В. Г. Кибернетические предсказывающие устройства. «Наукова думка», 1965. — 216 с. — ISBN 978-5-458-61159-6.
18. Казанович Я.Б., Р. М. Борисюк Синхронизация в нейронной сети фазовых осцилляторов с центральным элементом //Матем. Моделирование, 6:8 (1994), 45-60
19. Карандашев Я.М. Персептрон с аттракторами. - //Нейроинформатика 2013, т. 2, C. 125-130.
20. Катц Б. Нерв, мышца и синапс: Пер. с англ. М., 1968.
21. Кедер-Степанова И.А. Характеристики дыхательных нейронов разных уровней центральной нервной системы. - В кн.: Модели структурно-функциональной организации некоторых биологических систем. М., «Наука», 1966, С. 160 - 190.
22. Котов В.Б., К.П. Соловьева. Моделирование нейронов генерирующих периодические залпы импульсов с учетом внутриклеточной динамики концентрации кальция. - Труды НИИСИ, 2013.
23. Кринский В.И., Михайлов А.С. Автоволны. М.: Знание, 1984, С.63.
24. Мак-Каллок У.С., Питтс В. Логическое исчисление идей, относящихся к нервной активности. В: Автоматы. Под ред. Шеннона К.Э. и Маккарти Дж. М.: Изд-во иностр. лит., 1956. С. 363-384. (Перевод английской статьи 1943 г.)
25. Медицинский вестник, 1863, N0 47, стр. 461—484; N0 48, стр. 493 — 512. (Текст приводится по: Сеченов И. М. Рефлексы головного мозга. // В кн.: Сеченов И. М., Павлов И. П., Введенский Н. Е. Физиология нервной системы. Избранные труды. Выпуск 1. Под общей редакцией академика К. М. Быкова. Москва: Государственное издательство медицинской литературы., 1952. с. 143 - 211.)
26. Минский, М., Пейперт, С. Персептроны: Мир, 1971. — 261 с.
27. Орловский Г.Н. Нейронные механизмы локомоции. Докт. дисс. М., 1973. -247 с.
28. Орловский Г.Н. Спонтанная и вызванная локомоция таламической кошки. Биофизика, 1969, 14, № 6, с. 1095-1192.
29. Орловский Г.Н., Северин Ф.В., Шик М.Л. Локомоция, вызываемая стимуляцией среднего мозга. Докл. АН СССР, 1966, 169, 2(5), с. 1223-1226.
30. Павлов И. П. Двадцатилетний опыт объективного изучения высшей деятельности (поведения) животных. Наука, 1973. 661 с. ШрБ: //^^^^гишуеге .ги/рЫ1оворЬу/НЬ/Ьоок6240/144989/
31. Павлов И.П. Полное собрание сочинений, тома 1-6, М.-Л., 1951.
32. Скворчевский К.А. Метафизика процесса: история и современность. -Автореф. дис. канд. филос. наук, М., И-т философии, 2001, 13 с.
33. Соловьева К.П. Гиперкольцевые нейронные аттракторы. -//Нейроинформатика 2014, т. 1, C. 155-164.
34. Соловьева К.П. Формирование самоорганизующихся отображений сенсорных сигналов на непрерывные нейросетевые аттракторы. -//Математическая биология и биоинформатика. 2013. Т. 8. № 1. С. 234-247.
35. Соловьева К.П., Карандашев Я.М. Полиаттракторная топологически-упорядоченная сеть импульсных нейронов. - Сборник научных трудов XVI Всероссийской научно-технической конференции с международным участием "Нейроинформатика-2014", часть 1, с. 165-174.
36. Соловьева К.П., Котов В.Б. Нейросетевая модель дыхательной ритмики с учётом процессов, связанных с эндоплазматическим ретикулумом. - Труды НИИСИ РАН, 2013 г., т.3 №2, с. 78-87.
37. Фролов A.A., Муравьев И.П. Нейронные модели ассоциативной памяти // М.: Наука, 1987. 160 с.
38. Хайкин С. Нейронные сети. Полный курс. Второе издание. Перевод с английского, Москва, Издательство Вильямс, 2006, 1103 с.
39. Цетлин М.Л. Исследования по теории автоматов и моделированию биологических систем. М., Наука - Физматгиз, 1969, 316 с.
40. Чик Д., Р. М. Борисюк, Я. Б. Казанович Режимы синхронизация в сети нейронов Ходжкина-Хаксли с центральным элементом //Матем. биология и биоинформ., 3:1 (2008), 16-35
41. Шеннон К. МакКарти Дж. (ред.) Автоматы. М.: Изд-во иностр. лит., 1956
42. Шик М.Л. Управление наземной локомоцией млекопитающих. В кн.: Физиология движений. М.: Наука, 1976, с. 234-274.
43. Шик М.Л., Орловский Г.Н., Северин Ф.В. Организация локомоторной синергии. Биофизика, 1966, II, № 6, с. 879-886.
44. Шик М.Л., Северин Ф.В., Орловский Г.Н. Структуры мозгового ствола, ответственные за вызванную локомоцию. Физиолгич. журн. СССР, 1967, 53, № 10, с. II25-II32.
45. Шик М.Л., Северин Ф.В., Орловский Г.Н. Управление ходьбой и бегом посредством электрической стимуляции среднего мозга.-Биофизика, 1966, II, № 5, с. 659-666.
46. Adrian ED, Forbes A. The all-or-nothing response of sensory nerve fibres. J. Physiol. 1922 Jul 21;56(5):301-30. PMID: 16993532
47. Amari S.I. Dynamics of pattern formation in lateral-inhibition type neural fields. Bio. Cyber. 1977. V. 27. P. 77-87.
48. Antic S.D., W.L. Zhou, A.R. Moore, S.M. Short, K.D. Ikonomu. The decade of the dendritic NMDA spike. - //J Neurosci Res. 2010, Vol. 88(14):2991-3001.
49. Arshavsky Y.I., Deliagina T.G., Gelfand I.M., Orlovsky G.N., Panchin Y.V., Pavlova G.A., Popova L.B. Non-synaptic interaction between neurons in molluscs. Comp. Biochem. Physiol. 1988. 91(1): 199-203.
50. Arshavsky Y.I., Deliagina T.G., Orlovsky G.N., Panchin Y.V. Control of feeding movements in the freshwater snail Planorbis corneus. II. Activity of isolated neurons of buccal ganglia. Exp. Brain Res. 1988. 70(2): 323-331.
51. Arshavsky Y.I., Deliagina T.G., Orlovsky G.N., Panchin Y.V., Pavlova G.A., Popova L.B. Control of locomotion in marine mollusc Clione limacina. VI. Activity of isolated neurons of pedal ganglia. Exp. Brain Res. 1985. 63(1): 106112.
52. Arshavsky Y.I., Deliagina T.G., Orlovsky G.N., Panchin Y.V., Popova L.B., Sadreyev R.I. Analysis of the central pattern generator for swimming in the mollusk Clione. Ann. N.Y. Acad. Sci. 1998. 860: 51-69.
53. Arshavsky Y.I., Grillner S., Orlovsky G.N., Panchin Y.V. Central Generators and the Spatio-Temporal Pattern of Movements. - Advances in Psychology, 1991, Vol. 81, pp. 93-115.
54. Arshavsky Y.I., Orlovsky G.N., Panchin Y.V., Pavlova G.A. Control of locomotion in marine mollusc Clione limacina. VII. Reexamination of type 12 interneurons. Exp. Brain Res. 1989. 78(2): 398-406.
55. Baertsch,N.A., Baertsch, H.C., Ramirez J.M. The interdependence of excitation and inhibition for the control of dynamic breathing rhythms. - Nature Communications, 2018, No. 843, 17 p.
56. Bartunov S., Santoro A., Richards B.A., Hinton G.E., Lillicrap T. Assessing the Scalability of Biologically-Motivated Deep Learning Algorithms and Architectures. - arXiv: 1807.04587
57. Bengio Y., Mesnard T., Fischer A., Zhang S., Wu Y. Stdp-compatible approximation of backpropagation in an energy-based model. - Neural computation, 2017, Vol. 29, pp. 555-577.
58. Bengio Y., Lee D.-H., Bornschein J., Lin Z. Towards Biologically Plausible Deep Learning. - arXiv:1502.04156v1
59. Bassalygo L.A. Asymptotically optimal switching circuits. Probl. Peredachi Inf., 17:3, pp. 81-88 (1981).
60. Betz W. (1874) Anatomischer Nachweis zweier Gehirncentra. Centralblatt fur die medizinischen Wissenschaften. 12:578-580, 595—599.
61. Bibliography of SOM papers. http://www.cis.hut.fi/research/som-bibl/
62. Borisyuk G.N., Borisyuk R.M., Dunin-Barkowski W.L., Kovalenko V.N., Kovalenko E.I. Estimation of Information Capacity of Purkinje Cells. In: Locally Interacting Systems and their application in Biology, Lecture Notes in Mathematics, vol. 653, Springer-Verlag, Berlin, N.-Y., 1978, pp. 72-90.
63. Breasted, J. H. The Edwin Smith surgical papyrus. Chicago: Univ. Chicago Press, 1980, 2 vols. (see 1: pp. xvi, 6, 480-485, 487-489, 446-448, 451-454, 466; 2: pi. XVII, XVIIA).
64. Brindley G.S. Nerve Net Models of Plausible Size That Perform Many Simple Learning Tasks. Proc. R. Soc. Lond. B 174, вып. 1035 (18 ноябрь 1969 г.): 17391. https://doi.org/10.1098/rspb.1969.0087.
65. Brindley G.S. The Classification of Modifiable Synapses and Their Use in Models for Conditioning. Proc. R. Soc. Lond. B 168, вып. 1013 (14 ноябрь 1967 г.): 361-76. https://doi.org/10.1098/rspb.1967.0070.
66. Brown T.G. The intrinsic factor in the act of progression in the mammal. Proc. Roy. Soc., Ser. B, 1911, 84, N 3, p. 308-319.
67. Butera R.J, J. Rinzel, J.C. Smith. Models of respiratory rhythm generation in the pre-Botzinger Complex. J Neurophysiol., 1999, Vol. 80: 382-415.
68. Buxhoeveden D. P., Casanova M. F. The minicolumn hypothesis in neuroscience, Brain, Volume 125, Issue 5, 1 May 2002, Pages 935-951, https://doi.org/10.1093/brain/awf110.
69. Camillo Golgi (1873). Sulla struttura della sostanza grigia del cervelo. Gazzetta Medica Italiana. Lombardia 33: 244—246.
70. Candia V., Rosset-Llobet J., Elbert T., Pascual-Leone A. Changing the brain through therapy for musicians' hand dystonia. Ann N Y Acad Sci. 2005. V. 1060. P. 335-342.
71. Chomsky N. The Science of Language. - Cambridge University Press, NY, 2012, P. 328.
72. Choromanska A., Hena V., Mathieu M., BenArous G., LeCun Y. The Loss Surfaces of Multilayer Networks. - Proceedings of the 18th International Conference on Artificial Intelligence and Statistics (AISTATS) 2015, San Diego, CA, USA.
73. DeBivort B., Kakaria B.L. Ring Attractor Dynamics Emerge from a Spiking Model of the Entire Protocerebellar Bridge. - Frontiers in Behavioral Neuroscience, 2017, Vol. 14, No. fnbeh.2017.00008, 13 p.
74. Del Negro C. J. Hayes, J. Rekling. Dendritic calcium activity precedes inspiratory bursts in preBotzinger complex neurons. - J Neurosci. 2011 Vol. 31: 1017-22. URL: http://www.ncbi.nlm.nih. gov/pubmed/21248126.
75. Deliagina T.G., Feldman A.G., Gelfand I.M., Orlovsky G.N. On the role of central program and afferent inflow in the control of scratching movements in the cat. -Brain Research, 1975, Vol. 100, pp. 297-313.
76. Denker J.S. (Editor) Neural Networks for Computing, - American Institute of Physics Conference Proceedings, 1986, Vol. 151, August 1, 1986, 445 p.
77. Detoracis G., Bartley T., Neftci E. Contrastive Hebbian learning with random feedback weights. - arXiv: 1806.07406, 19 June 2018, 22p.
78. Dunin-Barkowski W. Data formats in multi-neuronal systems and brain reverse engineering. Invited talk, Conference Biologically Inspired Cognitive Architecture 2011. URL: http://2045.ru/pdf/ARLINGT0N20111106wldb.pdf.
79. Dunin-Barkowski W. L. Tonic and phasic drive to medullary respiratory neurons during periodic breathing Respiratory Physiology & Neurobiology 2012, DOI: 10.1016/j.resp.2012.03.012, Part of ISSN: 1569-9048.
80. Dunin-Barkowski W., Osovets N. Hebb-Hopfield neural networks based on one-dimentional sets of neuron states. Neural Processing Letters. 1995. V. 2. № 5. P. 28-31.
81. Dunin-Barkowski W.L., Escobar A.L., Lovering A.T., Orem J.M. Respiratory pattern generator model using Ca++-induced Ca++ release in neurons shows both pacemaker and reciprocal network properties Biological Cybernetics 2003, Vol. 89, No.4, p.274-288, DOI: 10.1007/s00422-003-0418-6.
82. Dunin-Barkowski W.L., Kovalenko E.I. "Cartesian networks — a method for multidimensional sensory space mapping into the activity pattern of several one-dimensional neural chains" - Neurocomputers and Attention, Vol 2, 1991, book-chapter Part of ISBN: 0-7190-3456-6.
83. Dunin-Barkowski W.L., Lovering A.T., Orem J.M. A neural ensemble model of the respiratory pattern generator: properties of the minimal model. Neurocomputing, 2002, Vol. 44-46, pp. 381-389.
84. Dunin-Barkowski W.L., Lovering A.T., Orem J.M., et al. L-plotting — A method for visual analysis of physiological experimental and modeling multi-component data. - //Neurocomputing, 2010, Vol. 74, P. 328-336.
85. Dunin-Barkowski W., Solovyeva K. Data Formats inside the Brain. - FIERCES ON BICA 2016: First International Early Research Career Enhancement School on Biologically Inspired Cognitive Architectures. MEPHI, 2016, p. 48.
86. Dunin-Barkowski W.L., Solovyeva K.P., Pavlov Principle and Brain Reverse Engineering.- IEEE Computational Intelligence in Bioinformatics and Computational Biology (Saint Louis, Missouri, USA, 2018). Accepted to publication, paper #37, Vol. 27, No. 2, p.65-80.
87. Fietkiewicz C., Shafer G.O., Ethan A.Platt E.A., Wilson C.G. Variability in respiratory rhythm generation: In vitro and in silico models. - Communications in Nonlinear Science and Numerical Simulation, 2016, Volume 35, pp. 158-168.
88. Finger, Stanley. Origins of Neuroscience: A History of Explorations Into Brain Function. Oxford University Press, 2001.
89. Firesein S. What science wants to know. - Scientific American, 2012, Vol. 306, No. 4, p. 10.
90. Fukusima K. Neural network model for a mechanism of pattern recognition unaffected by shift of position - neocognitron. - Transactions of ICEE, 1979, Vol. 62-A, pp. 658-665.
91. Funk G.D. Development of thyrotropin-releasing hormone and norepinephrine potentiation of inspiratory related hypoglossal motoneuron discharge in neonatal and juvenile mice in vitro / G.D. Funk, J.C. Smith, J.L. Feldman // J. Neurophysiol. - 1994. - V. 72. - P. 2538 - 2541.
92. Funk G.D. Generation and transmission of respiratory oscillatons in medullary slices: role of excitatory amino acids / G.D. Funk, J.C. Smith, J.L. Feldman //J. Neurophysiol. - 1993. - V. 70. - P. 1497 - 1515.
93. Funk G.D. Generation of respiratory rhythm and pattern in mammals: Insights from developmental studies / G.D. Funk, J.L. Feldman // Curr. Opin. Neurobiol. - 1995. - V. 5. - P. 778 - 785.
94. Grillner S. Control of Locomotion in Bipeds, Tetrapods, and Fish. -Comprehensive Physiology, 2011, Vol. 1, pp. 1179-1236
95. Hebb D.O. — The Organization of Behavior. John Wiley & Sons, New York, 1949
96. Hong Y.K., Lacefield C.O., Rodgers C.C., Bruno R.M. Sensation, movement and learning in the absence of barrel cortex - Nature, 2018, Vol. 561, pp. 542-546.
97. Hopfield J.J. Neural networks and physical systems with emergent collective computational abilities. Proc. NatL Acad. Sci. USA Vol. 79, pp. 2554-2558, (1982).
98. Kass J.H. Topographic Maps are Fundamental to Sensory Processing. Brain Research Bulletin. 1997. V. 44. № 2. P. 107-112.
99. Knierim J.J., Zhang K. Attractor dynamics of spatially correlated neural activity in the limbic system. Annu. Rev. Neurosci. 2012. V. 35. P. 267-285.
100. Kohonen T. Self-Organized Formation of Topologically Correct Feature Maps. Biological Cybernetics. 1982. V. 43. № 1. P. 59-69.
101. Kohonen, T. (1988), Learning Vector Quantization, Neural Networks, 1 (suppl 1), 303.
102. Kotov V., L. Artinian, V. Rehder, Dunin-Barkowski W. Modeling of the electrical activity of the Helisoma trivolvis B5 neurons. - //Front. Neuroinform. 2011, Conference Abstract: 4th INCF Congress of Neuroinformatics. doi: 10.3389/conf.fninf.2011.08.00131.
103. Krotov D., Hopfield J. Unsupervised learning by competing hidden units. - arxiv: 1806.10181v126 Jun 2018, 10 p.
104. Kuuma M., Veksler V., Kaasika A. Potassium fluxes across the endoplasmic reticulum and their role in endoplasmic reticulum calcium homeostasis. - Cell Calcium, 2015, Vol. 58, pp. 59-75.
105. LeCunn Y., Bengio Y., Hinton G. Deep Learning. - Nature, 2015, Vol. 521, pp. 436-444.
106. Liao Q., Leibo J.Z., Poggio T. How Important is Weight Symmetry in Backpropagation? - arXiv:1510.05067.
107. Lillicrap T.P., Cownden D., Tweed D.B., Akerman C.J. Random feedback weights support learning in deep neural networks: arXiv: 1411.0247v1 [q-bio.NC] 2 Nov 2014, 27 p.
108. Lillicrap T.P., Cownden D., Tweed D.B., Akerman C.J. Random feedback weights support error backpropagation for deep learning. - Nature Communication, 2016, Vol. 7, No. 13276, 10 p.
109. Lorente R. De No Cerebral cortex: architecture, intracortical connections, motor projections. - //In.: Physiology of the nervous system. - N.Y., Oxford Univ. Press, 1949, P. 288- 312.
110. Lucas K. (1909). The "all or none" contraction of the amphibian skeletal muscle fibre. J. Physiol. 38, 113-133.
111. Marr D. (1969). A theory of cerebellar cortex. J. Physiol. 202 (2): 437-70. doi: 10.1113/jphysiol. 1969.sp008820. PMC 1351491. PMID 5784296.
112. Marr D. (1970). A theory for cerebral neocortex. Proc. R. Soc. Lond. B Biol. Sci. 176 (43): 161-234. doi:10.1098/rspb.1970.0040. PMID 4394740.
113. Marr D. (1974) The computation of lightness by the primate retina. Vision Research, 14:1377-1388.
114. Marr D. (1976) Early processing of visual information. Phil. Trans. R. Soc. Lond. B, 275:483-524.
115. Marr D. (1982). Vision: A Computational Investigation into the Human Representation and Processing of Visual Information. New York: Freeman.
116. Marr D. Simple Memory: A Theory for Archicortex. Philosophical Transactions of the Royal Society of London. Series B, Biological Sciences, Vol. 262, No. 841, pp. 23-81 (1971).
117. Marr, D., и T. Poggio. (1979) A computational theory of human stereo vision. Proceedings of the Royal Society of London B, 204:301-328.
118. Marr, D., и T. Poggio. Cooperative Computation of Stereo Disparity. Science 194, вып. 4262 (1976 г.): 283-87. https://doi.org/10.1126/science.968482.
119. Marr D. 1945-1980. From the retina to the neocortex: selected papers of David Marr. - Vaina L.M. (editor), Boston, Birkhauser, 1991, 330 p.
120. Missaghi K., LeGal J.-P., Gray P.A., Dubuc R. The neural control of respiration in lamprey. - Respiratory Physiology & Neurobiology, 2016, Volume 234, pp. 1425.
121. Mnih V., Kavukcuoglu K., Silver D., et al. Human-level control through deep reinforcement learning. - Nature, 2015, Vol. 518, pp. 529-533.
122. Nakamura K., Wong-Lin K. Neurobiological circuit function and computation of the serotonergic and other related systems. - Frontiers Research Topics. Frontiers in Integrative Neuroscience, 2015, Vol. 7, pp. 1-122.
123. Nokland, Arild. «Direct Feedback Alignment Provides Learning in Deep Neural Networks». arXiv:1609.01596 [cs, stat], 6 сентябрь 2016 г. http://arxiv.org/abs/1609.01596.
124. Orlovsky G.N., Deliagina T.G., Grillner S. Neuronal Control of Locomotion. Oxford Univ. Press, 1999.
125. Penfield W., Boldrey E. Somatic motor and sensory representation in the cerebral cortex of man as studied by electrical stimulation. - Brain, 1937, Vol. 60, pp. 389443.
126. Pickett K.L., Stein P.S., Vincen-Brown M.A., Pilarski J.Q., Maturation of Breathing-Related Inhibitory Neurotransmission in the Medulla Oblongata of the Embryonic and Perinatal Zebra Finch (Taeniopygia guttata). August 2018. Developmental Neurobiology, DOI:10.1002/dneu.22632, PMID: 30160056.
127. Ponulak F., J.J. Hopfield Rapid, parallel path planning by propagating wavefronts of spiking neural activity. - //Frontiers in Computational Neuroscience, V. 7, article 98, 2013, P. 1-14.
128. Pozzi I., Bohte S., B., Roelfsema P. Pieter. (2018). A Biologically Plausible Learning Rule for Deep Learning in the Brain. - arXiv:1811.01768.
129. Purvis L.K., and R.J. Butera Ionic Current Model of a Hypoglossal Motoneuron. - //J Neurophysiol 2005, Vol. 93, P. 723-733.
130. Rolls, Edmund. «A Quantitative Theory of the Functions of the Hippocampal CA3 Network in Memory». Frontiers in Cellular Neuroscience 7 (2013 г.). https://doi.org/10.3389/fncel.2013.00098.
131. Rosenblatt F. Principles of Neurodynamics: Perceptrons and the Theory of Brain Mechanisms. Washington, DC: Spartan Books (1962).
132. Ross W.N. Understanding calcium waves and sparks in central neurons. -//Nature Reviews Neuroscience. Vol. 13 (3), 2010, P. 157-168.
133. Rummelhart D., Hinton G., Williams R. Learning Representation by back-propagating errors. - Nature, 1986, Vol. 323, pp. 533-536.
134. Russel B. The scientific outlook. London, George Allen and Unwin, 1931, 285 p.
135. Rybak I.A., Paton J.F.R., Rogers R.F., St.-John W.M. Generation of the respiratory rhythm: state-dependency and switching //Neurocomputing 2002; 4446:603-612.
136. Rybak I.A., Paton J.F.R., Schwaber J.S. Modeling neural mechanisms for genesis of respiratory rhythm and pattern: III Comparison of model performances during afferent nerve stimulation //J.Neurophysiol. 1997; 77:2027-2039.
137. Rybak I.A., St.-John W.M., Paton J.F.R. Models of neuronal bursting behavior: Implications for in vivo versus in vitro respiratory rhythmogenesis //Adv. Exp. Med.Biol. 2001; 499:159-164.
138. Rybak I.A., O'Connor R., Ross A., Shevtsova N.A., Nuding S.C., Segers L.S., Shannon R., Dick T.E., Dunin-Barkowski W.L., Orem J.M., Solomon I.C., Morris K.F., Linsdey B.G. Reconfiguration of the Pontomedullary Respiratory Network: A Computational Modeling Study with Coordinated in Vivo Experiments. - J Neurophysiol. 2008, Vol. 100: 1770-1799.
139. Samsonovich, Alexei, h Bruce L. McNaughton. «Path Integration and Cognitive Mapping in a Continuous Attractor Neural Network Model». Journal of Neuroscience 17, #15 (1997): 5900-5920. https://doi.org/10.1523/JNEUROSCI.17-15-05900.1997.
140. Sejnowski T. The Deep Learning Revolution. MIT Press, 2018.
141. Semple, David, and Roger Smyth. Oxford Handbook of Psychiatry. OUP Oxford, 2013.
142. Severin F.V., Orlovsky G.N. and Shik M.L. Reciprocal influences on work of motoneurons during controlled locomotion. - Bull. Exp. Biol. And Medicine, 1968, Vol. 66, pp. 5-9.
143. Shakirov V.V., Solovyeva K.P., Dunin-Barkowski W.L. Review of State-of-the-Art in Deep Learning Artificial Intelligence. - Optical memory and neural networks, 2018, Vol. 27, no. 2, pp. 65-80.
144. Sherrington C.S. Flexion-reflex of the limb, crossed extension reflex, and reflex stepping and standing. J. Physiol. (Lond.), 1910, 40, N 1, p. 28-121.
145. Sherrington C.S. Notes on the scratch reflex of the cat. -Quart. J. exp. Physiol., 1910, 3, N 2, p. 213-220.
146. Sherrington C.S. Observations on the scratch-reflex in the spinal dog. J. Physiol. (Lond.), 1906, 34, N 1, p. 1-50.
147. Sherrington C.S. Reflexes elicitable in the cat from pinna, vib-rissae and jaws. J. Physiol. (Lond.), 1917, 51, N 6, p. 404431.
148. Shik M.L., Orlovsky G.N. Neurophysiology of locomotor automatism. -Physiological Rewiews, 1976, Vol. 56, pp. 465-501.
149. Smith, Jeffrey C., Howard H. Ellenberger, Klaus Ballanyi, Diethelm W. Richter, и Jack L. Feldman. «Pre-Betzinger Complex: A Brainstem Region That May Generate Respiratory Rhythm in Mammals». Science (New York, N.Y.) 254, вып. 5032 (1 ноябрь 1991 г.): 726-29.
150. Solovyeva K., Karandashev I., Dunin-Barkowski W. Analytical estimates of efficiency of attractor neural networks with inborn connections. - ITM Web Conferences. - EDP Sciences, 2016. - Vol. 6, p. 02009.
151. Solovyeva K.P., Karandashev I.M., Zhavoronkov A., Dunin-Barkowski W.L. Models of Innate Neural Attractors and Their Application for Neural Information Processing. - Frontiers in System Neuroscience, 2016, Vol. 9, No. 00178, 13 p.
152. Solovyeva K.P., Kiselev I.I., Dunin-Barkowski W.L. Stochastic resonance in desynchronization of homogeneous neuronal pool. - Non-Linear Dynamics of Electronic Systems, Acireale, Catania, Italy, June, 10-13, 2018.
153. Stringer S.M., Rolls E.T., Trappenberg T.P., de Araujo I.E.T. Self-organizing continuous attractor networks and path integration: two-dimentional models of place cells. Network: Comput. Neural Syst. 2002. V. 13. P. 429-446.
154. Sutton R., Barto A. Reinforcement Learning: An Introduction. MIT Press, 1998, 350 p.
155. Tsodyks M. Attractor neural network models of spatial maps in hippocampus. Hippocampus. 1999. V. 9. № 4. P. 481-489.
156. Van Horn JD, Irimia A, Torgerson CM, Chambers MC, Kikinis R, Toga AW (2012) Mapping Connectivity Damage in the Case of Phineas Gage. PLoS ONE 7(5): e37454. https://doi.org/10.1371/journal.pone.0037454.
157. Verkhratsky, A. «The endoplasmic reticulum and neuronal calcium signalling». Cell Calcium, Endoplasmic Reticulum as a Signalling Organelle, 32, вып. 5 (1 ноябрь 2002 г.): 393-404. https://doi.org/10.1016/S0143416002001896.
158. Widrow B. An adaptive "ADALINE" neuron using chemical "memistors". Techical report No. 1553-2, October 17, 1960. Solid-State Electronics Laboratory, Staford University, Stanford, California. URL: http://www-isl.stanford.edu/~widrow/papers/t1960anadaptive.pdf.
159. Xiao W., Chen H., Liao Q., Poggio T. Biologically-plausible learning algorithms can scale to large datasets. - (2018) arXiv:1811.03567
160. Zhang K. Representation of spatial orientation by the intrinsic dynamics of the head-direction cell ensemble: A theory. Journal of Neuroscience. 1996. V. 16. P. 2112-2126. Lillie, Malcolm C. «Cranial Surgery Dates Back to Mesolithic». Nature 391, вып. 6670 (февраль 1998 г.): 854-854. https://doi.org/10.1038/36023.
Приложение 1. Параметры нейронов, генерирующие в отсутствие торможения последовательности пачек с длительностью пачки немного
меньшей длительности паузы
function resp16a(kin);
% Respiratory Network of neurons from resp8 % Modification of resp11 % Delay of inhibition
% Eex is more correct than the one in resp16 global N1 N2 NN;
N1=30; % number of neurons of the first subset N2=30; % number of neurons of the second subset NN=N1+N2;
global Inh0; % matrix of signature of inhibitory connections Inh0=[zeros(N1,N1) ones(N1,N2)
ones(N2,N1) zeros(N2,N2)]; global Inh; % matrix of inhibitory connections Inh=[zeros(N1,N1) 0.9*ones(N1,N2)+0.2*rand(N1,N2)
0.9*ones(N2,N1)+0.2*rand(N2,N1) zeros(N2,N2)];
global MEx; % exitatory coefficients MEx=0.90*ones(NN, 64*1024)+0.2*rand(NN,64*102 4); %FFF=fft(MEx');
%FFF((10*1024+1):(54*1024),:)=0;
%MEx=(real(ifft(FFF)))'; % smoothed coefficients
global Nc; Nc=15;
global alf2;
alf2=0.14*ones(NN,1)+0.19*rand(NN,1);
AbsToly=[0.1*ones(NN,1)
0.0001*ones(NN,1)
0.0001*ones(NN,1)
0.0001*ones(NN,1)
0.0001*ones(NN,1)
0.0001*ones(NN,1)
0.0001*ones(NN,1)
0.0001*ones(NN,1)
0.0001*ones(NN,1)
0.0001*ones(NN,1)
0.0001*ones(NN,1)
0.1*ones(NN,1)
0.0001*ones(NN,1)
0.01*ones(NN,1)
0.01*ones(NN,1)];
% JPattern definition JP=sparse(eye(NN*Nc));
for k=1:NN for j=1:10
JP(k,j*NN+k)=1; % v - NaPm, NaPh, m, h, n, Pm, Skz, Am, Ah, Ca end; %for j end; %for k
JP(1:NN,NN*(Nc-1)+1:NN*Nc)=Inh0; % v - InA2
for k=1:NN JP(NN+k,k)=1; %NaPm - v JP(2*NN+k,k)=1; %NaPh - v JP(3*NN+k,k)=1; %m - v JP(4*NN+k,k)=1; %h - v JP(5*NN+k,k)=1; %n -v JP(6*NN+k,k)=1; %Pm - v JP(7*NN+k,10*NN+k)=1; %Skz - Ca JP(8*NN+k,k)=1; %Am - v JP(9*NN+k,k)=1; %Ah - v JP(10*NN+k,k)=1; % Ca - v JP(10*NN+k,11*NN+k)=1; % Ca - vR JP(10*NN+k,6*NN+k)=1; % Ca - Pm JP(11*NN+k,10*NN+k)=1; % vR - Ca JP(11*NN+k,12*NN+k)=1; % vR - Clm JP(12*NN+k,11*NN+k)=1; % Clm - vR JP(NN*(Nc-2)+k,k)=1; % InA1 - v JP(NN*(Nc-1)+k,NN*(Nc-2)+k)=1; % InA2 - InA1 end; % for k
options=odeset('AbsTol',AbsToly,'RelTol',1e-4, 'Jpattern', JP); tspan=[0 200];
ff=fopen('in cond.dat','r'); % opening the file with initial conditions
y0=fscanf(ff,'%g',[NN*Nc 1]);
fclose(ff);
nf=strcat('16a ',num2str(kin),'.dab'); % name of file for results ff=fopen(nf,'w');
f1=figure('Position',[10 0 1000 330]); hold on;
f2=figure('Position',[10 400 1000 330]); hold on;
[t,y]=ode15s(@pravaya,tspan, y0,options,kin);
yy1=sum(y(:,1:N1)>-40,2);
yy2=sum(y(:,N1+1:NN)>-4 0,2);
figure(f1);
plot(t,yy1,'-r');
figure(f2);
plot(t,yy2,'-g');
for k1=1:size(t,1)
fwrite(ff,t(k1),'float32'); fwrite(ff,y(k1,1:NN),'float32'); end; % for k1
for j=1:99 pause(1);
tspan=[200*j 2 0 0*(j+1)]; y0=y(end,:);
[t,y]=ode15s(@pravaya,tspan, y0,options,kin);
yy1=sum(y(:,1:N1)>-40,2);
yy2=sum(y(:,N1+1:NN)>-4 0,2);
figure(f1);
plot(t,yy1,'-r');
figure(f2); plot(t,yy2,'-g'); for k1=2:size(t,1)
fwrite(ff,t(k1),'float32'); fwrite(ff,y(k1,1:NN),'float32');
end; % for k1 end; %for j
fclose(ff); hold off;
% Parameter units: current (nA), voltage (mV), conductances (uS), time (msec), calcium (mM), cap (nF)
function dydt = pravaya(t,y,kin)
global N1 N2 NN; global Inh0; global Inh; global Nc; global MEx;
v=y(1:NN);
NaPm=y(NN+1:2*NN);
NaPh=y(2*NN+1:3*NN);
m=y(3*NN+1:4*NN);
h=y(4*NN+1:5*NN);
n=y(5*NN+1:6*NN);
Pm=y(6*NN+1:7*NN);
SKz=y(7*NN+1:8*NN);
Am=y(8*NN+1:9*NN);
Ah=y(9*NN+1:10*NN);
Ca=y(10*NN+1:11*NN);
vR=y(11*NN+1:12*NN);
Clm=y(12*NN+1:13*NN);
InA1=y(13*NN+1:14*NN);
InA2=y(14*NN+1:15*NN);
ENa=60;
EK=-8 0;
ECa=40;
El=-50;
ECl=-60;
Eex=-12;
Ein=-60;
% I_NaP (Persistant Channel)
gNaP_=0.05;
tauhNaP=15 0;
taumNaP=0.1;
NaPminf=1./(1+exp(-(v+47.1)/4.1)); NaPhinf=1./(1+exp((v+65)/5));
iNaP=gNaP_*NaPm.*NaPh.*(v-ENa);
dNaPmdt = (NaPminf-NaPm)/taumNaP; dNaPhdt = (NaPhinf-NaPh)/tauhNaP;
% Regular I Na Channel
gNa_=0.7;
taumNa=0.1;
tauhNa=1.5;
minf=1./(1+exp(-(v+3 6)/8.5)); hinf=1./(1+exp((v+44.1)/7));
iNa=gNa_*m.*m.*m.*h.*(v-ENa);
dmdt=(minf-m)/taumNa; dhdt=(hinf-h)/tauhNa;
% I_K gK_=1.3;
taun=0.9;
ninf=1./(1+exp(-(v+30)/25));
iK=gK_*n.*n.*n.*n.*(v-EK);
dndt=(ninf-n)/taun;
% I_leak
gl_=0.005;
il=gl_*(v-El);
% I_P gP_=0.03;
taumP=2;
Pminf=1./(1+exp(-(v+17)/3));
iP=gP_*Pm.*(v-ECa);
dPmdt = (Pminf-Pm)/taumP;
% I_SK gSK_=0.5; SKhalf=0.005; tauzSK=1;
SKzinf=Ca.*Ca./(Ca.*Ca+SKhalf*SKhalf); iSK=gSK_*SKz.*SKz.*(v-EK);
dSKzdt=(SKzinf-SKz)/tauzSK;
% IA - A-current gA_=0.95;
tauhA=15; taumA=3;
Aminf = 1./(1+exp(-(v+27)/16)); Ahinf=1./(1+exp((v+8 0)/11));
iA=gA_*Am.*Ah.*(v-EK);
dAmdt=(Aminf-Am)/taumA; dAhdt=(Ahinf-Ah)/tauhA;
% I CaR - reticulum Ca current
gR_=0.07;
Ca0=0.002;
DCa=0.00031;
iCaR=gR_./(1+exp(-(Ca-Ca0)./DCa)).*(vR-ECa);
% I ClR - reticulum Cl current
gCl_=0.01;
taumCl=8 0;
Clminf=1./(1+exp((vR-23)/2));
iClR=gCl_*Clm.*(vR-ECl);
dClmdt = (Clminf-Clm)/taumCl;
% iCa - sum of Ca currents %iCa=iP;
% Ca concentration [Ca++]i
k1=-0.0005;
k2=0.02;
dCadt = k1*(iP+iCaR) - k2*Ca;
% STIMULATION gex=0.0073;
%kin=0.01; this parameter is put as argument of the function !!!
iStim=gex*MEx(:,floor(t)+1).*(v-Eex)+ kin*(Inh*InA2).*(v-Ein);
% iOut - sum of K currents %iOut=iK+iSK+iA;
% Total Current
iTot=il+iNaP+iNa+iK+iSK+iA+iP+iStim;
% Main Equation Cm=0.0 4;
dvdt=-iTot/Cm;
% Main Equation for Reticullum CmR=0.015;
dvRdt=-(iCaR + iClR)/CmR;
% Inhibitory Activity Equations
global alf2;
alf1=0.05;
dInA1dt = (v>-20).*(1-InA1)/1 - (v<=-20).*InA1*alf1; dInA2dt = InA1.*alf2*alf1 - InA2.*alf2;
dydt = [dvdt
dNaPmdt
dNaPhdt
dmdt
dhdt
dndt
dPmdt
dSKzdt
dAmdt
dAhdt
dCadt
dvRdt
dClmdt
dInA1dt
dInA2dt];
Приложение 2. Программа для расчёта мембранных потенциалов
function resp24(kin);
% Respiratory Network of neurons from resp8 % Modification of resp11 % Delay of inhibition
% Eex is more correct than the one in resp16 % CaR conductence is off after 10 s and on after 14 s
global N1 N2 NN;
N1=30; % number of neurons of the first subset N2=30; % number of neurons of the second subset NN=N1+N2;
global Inh0; % matrix of signature of inhibitory connections Inh0=[zeros(N1,N1) ones(N1,N2)
ones(N2,N1) zeros(N2,N2)]; global Inh; % matrix of inhibitory connections Inh=[zeros(N1,N1) 0.9*ones(N1,N2)+0.2*rand(N1,N2)
0.9*ones(N2,N1)+0.2*rand(N2,N1) zeros(N2,N2)];
global MEx; % exitatory coefficients MEx=0.90*ones(NN, 64*102 4)+0.2*rand(NN,64*1024); %FFF=fft(MEx');
%FFF((10*1024+1):(54*1024),:)=0;
%MEx=(real(ifft(FFF)))'; % smoothed coefficients
global Nc; Nc=15;
global alf2;
alf2=0.14*ones(NN,1)+0.19*rand(NN,1);
AbsToly=[0.1*ones(NN,1)
0.0001*ones(NN,1)
0.0001*ones(NN,1)
0.0001*ones(NN,1)
0.0001*ones(NN,1)
0.0001*ones(NN,1)
0.0001*ones(NN,1)
0.0001*ones(NN,1)
0.0001*ones(NN,1)
0.0001*ones(NN,1)
0.0001*ones(NN,1)
0.1*ones(NN,1)
0.0001*ones(NN,1)
0.01*ones(NN,1)
0.01*ones(NN,1)];
% JPattern definition JP=sparse(eye(NN*Nc));
for k=1:NN for j=1:10
JP(k,j*NN+k)=1; % v - NaPm, NaPh, m, h, n, Pm, Skz, Am, Ah, Ca end; %for j end; %for k
JP(1:NN,NN*(Nc-1)+1:NN*Nc)=Inh0; % v - InA2
for k=1:NN JP(NN+k,k)=1; %NaPm - v JP(2*NN+k,k)=1; %NaPh - v JP(3*NN+k,k)=1; %m - v JP(4*NN+k,k)=1; %h - v JP(5*NN+k,k)=1; %n -v JP(6*NN+k,k)=1; %Pm - v JP(7*NN+k,10*NN+k)=1; %Skz - Ca JP(8*NN+k,k)=1; %Am - v JP(9*NN+k,k)=1; %Ah - v JP(10*NN+k,k)=1; % Ca - v JP(10*NN+k,11*NN+k)=1; % Ca - vR JP(10*NN+k,6*NN+k)=1; % Ca - Pm JP(11*NN+k,10*NN+k)=1; % vR - Ca JP(11*NN+k,12*NN+k)=1; % vR - Clm JP(12*NN+k,11*NN+k)=1; % Clm - vR JP(NN*(Nc-2)+k,k)=1; % InA1 - v JP(NN*(Nc-1)+k,NN*(Nc-2)+k)=1; % InA2 - InA1 end; % for k
options=odeset('AbsTol',AbsToly,'RelTol',1e-4, 'Jpattern', JP); tspan=[0 2 00];
ff=fopen('in cond.dat','r'); % opening the file with initial conditions
y0=fscanf(ff,'%g',[NN*Nc 1]);
fclose(ff);
nf=strcat('2 4 ',num2str(kin),'.dab'); % name of file for results ff=fopen(nf,'w');
f1=figure('Position',[10 0 1000 330]); hold on;
f2=figure('Position',[10 400 1000 330]); hold on;
[t,y]=ode15s(@pravaya,tspan, y0,options,kin);
yy1=sum(y(:,1:N1)>-40,2);
yy2=sum(y(:,N1+1:NN)>-4 0,2);
figure(f1);
plot(t,yy1,'-r');
figure(f2);
plot(t,yy2,'-g');
for k1=1:size(t,1)
fwrite(ff,t(k1),'float32'); fwrite(ff,y(k1,1:NN),'float32'); end; % for k1
for j=1:99 pause(1);
tspan=[200*j 2 0 0*(j+1)]; y0=y(end,:);
[t,y]=ode15s(@pravaya,tspan, y0,options,kin);
yy1=sum(y(:,1:N1)>-40,2);
yy2=sum(y(:,N1+1:NN)>-4 0,2);
figure(f1);
plot(t,yy1,'-r');
figure(f2);
plot(t,yy2,'-g'); for k1=2:size(t,1)
fwrite(ff,t(k1),'float32'); fwrite(ff,y(k1,1:NN),'float32'); end; % for k1 end; %for j
fclose(ff); hold off;
% Parameter units: current (nA), voltage (mV), conductances (uS), time (msec), calcium (mM), cap (nF)
function dydt = pravaya(t,y,kin)
global N1 N2 NN; global Inh0; global Inh; global Nc; global MEx;
v=y(1:NN);
NaPm=y(NN+1:2*NN);
NaPh=y(2*NN+1:3*NN);
m=y(3*NN+1:4*NN);
h=y(4*NN+1:5*NN);
n=y(5*NN+1:6*NN);
Pm=y(6*NN+1:7*NN);
Обратите внимание, представленные выше научные тексты размещены для ознакомления и получены посредством распознавания оригинальных текстов диссертаций (OCR). В связи с чем, в них могут содержаться ошибки, связанные с несовершенством алгоритмов распознавания. В PDF файлах диссертаций и авторефератов, которые мы доставляем, подобных ошибок нет.