Рекуррентные алгоритмы обучения и самообучения в теории распознавания образов тема диссертации и автореферата по ВАК РФ 01.01.09, кандидат физико-математических наук Измакова, Ольга Анатольевна
- Специальность ВАК РФ01.01.09
- Количество страниц 109
Оглавление диссертации кандидат физико-математических наук Измакова, Ольга Анатольевна
Введение
1 Задача распознавания образов
1.1 Обучающиеся опознающие системы.
1.2 Задача распознавания как задача аппроксимации индикаторной функции.
1.3 Линейная разделимость образов.
1.3.1 Выпуклые множества на единичном кубе.
1.4 Нелинейная разделимость образов.
1.4.1 Комитет неравентсв.
1.4.2 Переход в спрямляющее пространство.
1.5 Самообучение.
1.5.1 Автоматическая классификация сигналов
1.5.2 Методы стохастической оптимизации в задаче самообучения
1.6 Алгоритм локального обучения
2 Задача аппроксимации функций
2.1 Среднеквадратичное приближение.
2.2 Алгоритм антиградиентного спуска.
2.3 Система нормальных уравнений Гаусса в стандартной задаче аппроксимации.
2.4 Последовательная аппроксимация.
2.4.1 Метод последовательного проектирования.
2.4.2 Последовательное проектирование в случае одномерных подпространств.
2.5 Кусочно-параметрическая аппроксимация.
2.6 Метод локальной аппроксимации.
2.7 Выбор системы базисных функций
3 Рандомизированные алгоритмы стохастической оптимизации в задаче самообучения
3.1 Алгоритмы стохастической оптимизации с возмущением на входе в задаче самообучения.
3.1.1 Примеры применения представленных алгоритмов
4 Применение рекуррентных алгоритмов обучения
4.1 Метод группового учета аргументов.
4.2 Нейроны, нейронные сети и методы их обучения.
4.2.1 Описание искусственных нейронных сетей.
4.2.2 Локальная аппроксимация в нейросетях.
4.2.3 Алгоритмы самообучения для нейронных сетей
Рекомендованный список диссертаций по специальности «Дискретная математика и математическая кибернетика», 01.01.09 шифр ВАК
Рандомизированные алгоритмы оценивания и оптимизации при произвольных помехах2001 год, доктор физико-математических наук Граничин, Олег Николаевич
Оптимальный останов процессов обучения и оценивания1984 год, кандидат физико-математических наук Лукин, Сергей Петрович
Дискретно-стохастические численные методы2001 год, доктор физико-математических наук Войтишек, Антон Вацлавович
Теория и алгоритмы вариационной сплайн-аппроксимации2003 год, доктор физико-математических наук Роженко, Александр Иосифович
Рандомизированные алгоритмы стохастической аппроксимации при неопределенностях с бесконечным вторым моментом2010 год, кандидат физико-математических наук Вахитов, Александр Тимурович
Введение диссертации (часть автореферата) на тему «Рекуррентные алгоритмы обучения и самообучения в теории распознавания образов»
Научные исследования, связанные с развитием теории распознавания образов, не теряют своей актуальности более полувека. Параллельно с рождением и развитием новых прикладных областей науки возникает необходимость и в новых математических инструментах распознавания, обращение к которым позволит получать решения возникающих в этих областях задач. В частности, возникает потребность в алгоритмах, приспособленных к применению в нестандартных, с точки зрения развитой ранее теории, условиях.
Литература, посвященная распознаванию образов, весьма обширна. К ней относятся как работы теоретического характера ([1], [17], [20], [28], [43], [44], [47] [48], [49], [50], [52]-[54]), так и работы, в которых обсуждаются вопросы функционирования конкретных опознающих систем ([21], [33]). Такое разделение достаточно условно, поскольку большинство работ первой группы также содержит практические рекомендации и результаты моделирования конкретных опознающих систем. В перечисленных выше монографиях и статьях можно найти детальное обсуждение различных постановок задач теории распознавания и методов их решения.
В настоящей работе использованы геометрический (экстраполяцион-ный) подход и подход на основе методов стохастической аппроксимации. Традиционными недостатками значительного числа алгоритмов, развитых в рамках указанных подходов, являются неприменимость в условиях большой размерности и/или отсутствие состоятельности без достаточно ограничительных условий на неконтролируемые возмущения. Между тем, многие из возникающих на современном этапе практических задач характеризуются высокой размерностью. Кроме того, при рассмотрении задач с помехами желательно делать лишь минимальные предположения об их статистических свойствах.
Основной целью настоящей работы является разработка новых алгоритмов обучения и самообучения для решения задачи классификации, работоспособных в условиях большой размерности и при минимальных ограничениях на неконтролируемые возмущения.
В диссертационной работе получены следующие новые результаты:
• разработан и обоснован метод последовательного проектирования, позволяющий строить проекцию элемента гильбертова пространства на замкнутую линейную оболочку заданных подпространств, используя проектирование на эти подпространства, дополненное одномерными проекциями;
• получены явные формулы для вычисления коэффициентов аппроксимирующей функции при решении задачи среднеквадратичной аппроксимации методом последовательного проектирования;
• предложены рандомизированные алгоритмы стохастической оптимизации, адаптированные для решения задачи самообучения;
• получены достаточные условия состоятельности рандомизированных алгоритмов стохастической оптимизации в задаче самообучения.
Разработанные и обоснованные в настоящей работе новые алгоритмы могут быть использованы для решения разнообразных задач распознавания. Например, метод последовательного проектирования применим для решения задачи среднеквадратичной аппроксимации функций, в том числе возникающей в рамках теории распознавания образов. Кроме того, этот метод применим для доказательства сходимости метода группового учета аргументов. Рандомизированные алгоритмы стохастической оптимизации могут применяться при решении конкретных задач самообучения, в частности, в качестве алгоритма настройки весовых коэффициентов ассоциативных нейронных сетей.
По материалам диссертации были сделаны доклады на Первой международной конференции по мехатронике и робототехнике (Санкт-Петербург, 2000 г.), на заседании международной школы-семинара "Адаптивные роботы - 2004" (Санкт-Петербург), а также на семинарах кафедр теоретической кибернетики и системного программирования математико-механического факультета Санкт-Петербургского государственного университета. Основное содержание диссертации было опубликовано в работах [15], [16], [22] - [24] и [45], часть из которых написана в соавторстве с научным руководителем В. Н. Фоминым, которым осуществлялась общая корректировка направлений исследования. В статье, написанной в соавторстве с С. С. Сысоевым, диссертанту принадлежит метод решения и его обоснование, а ее соавтору — численное моделирование представленного алгоритма.
Работа выполнена при частичной поддержке Российского фонда фундаментальных исследований (гранты 98-01-00581 и 05-07-90179).
Диссертация организована следующим образом.
В первой главе подробно обсуждаются различные постановки задачи распознавания образов, в том числе задачи обучения с учителем и самообучения.
Один из распространенных подходов к задачам обучения с учителем заключается в том, чтобы представить их в виде задачи аппроксимации некоторой функции (Фомин В. Н. [43]). Особенность большинства задач обучения с учителем позволяет заменить их задачей аппроксимации ко-нечнозначной функции (двузначной в случае двух классов изображений). Значения этой функции на тренировочной последовательности интерпретируются как указания "учителя" о принадлежности элементов обучающей последовательности тому или иному классу образов.
Выбор алгоритма для обучения опознающей системы в значительной степени опирается на априорную информацию, которая известна о классах изображений в пространстве признаков. В п. 1.3 и 1.4 рассмотрены случаи линейной и нелинейной разделимости образов и описаны некоторые из возможных алгоритмов решения задачи обучения с учителем в этих ситуациях.
В следующем пункте первой главы обсуждается задача обучения без учителя. Существует несколько возможных математических формулировок задачи самообучения: оценивание смесей распределений (Дуда Р., Харт П. [17], Фукунага К. [47]), вариационный подход (Цыпкин Я. 3. [48], Айзерман М. А., Браверман Э. М., Розоноэр JI. И. [1], Фомин В. Н. [43], [44]) и множество вариантов кластер-анализа. В настоящей работе используется вариационный подход, при котором процесс обучения сводится к построению последовательности оценок оптимальных параметров, которые доставляют минимум функционалу среднего риска, имеющего смысл математического ожидания общих потерь, и определяют оптимальное разбиение выборочного пространства, т. е. оптимальное правило классификации. Отметим, что вариационный подход позволяет строить алгоритмы обучения в рекуррентной форме, и предоставляет возможность использовать для вывода алгоритмов самообучения метод стохастической оптимизации.
В завершении первой главы описан алгоритм локального обучения, в котором на основе геометрического подхода к задаче распознавания реализована идея построения разделяющей поверхности как набора поверхностей заданного вида, каждая из которых выполняет разделение на классы на одном из подмножеств признакового пространства. Разбиение пространства признаков на эти подмножества происходит в процессе обучения.
Во второй главе обсуждается задача аппроксимации, трактуемая как задача экстраполяция функции с некоторого конечного множества, на котором ее значения известны, на более широкое множество аргументов с помощью восстанавливающей функции — линейной комбинации заданных (базисных) функций. Коэффициенты восстанавливающей функции определяются из требования ее близости в среднеквадратичном смысле к аппроксимируемой функции на множестве, где ее значения известны. Указанная задача всегда разрешима, однако развитые методы ее решения могут оказаться непродуктивными в некоторых задачах, возникающих в приложениях, что может быть связано с большой размерностью или плохой обусловленностью конструируемых в ходе решения матриц. Например, при использовании алгоритма антиградиентного спуска в условиях, когда система базисных функций велика, может возникать необходимость выбора очень малого шага аппроксимации (лемма 1). Применение алгоритма Гаусса также может быть затруднительно или давать большую погрешность вычислений, если матрица коэффициентов плохо обусловлена или имеет большие размеры.
Основной результат второй главы — формулировка и обоснование алгоритма последовательного проектирования, позволяющего избежать указанных трудностей. Метод изложен на абстрактном уровне и позволяет строить проекцию заданного элемента гильбертова пространства на замкнутую линейную оболочку набора конечномерных подпространств в предположении, что имеется возможность вычислять ортогональные проекции на произвольные конечномерные подпространства.
Уточним постановку задачи. Пусть в гильбертовом пространстве Н заданы последовательность {Н^, к = 1,2,.} базисных подпространств Н^ (которые предполагаем конечномерными) и некоторый элемент / Е Н. Требуется найти ортогональную проекцию этого элемента на замкнутую линейную оболочку заданных подпространств, предполагая, что алгоритм вычисления искомой проекции может содержать только проектирование на Hjt, к = 1,2,., дополненное одномерными проекциями. Обозначим через /1 = Phi / ортогональную проекцию элемента / на базисное подпространство Hi, а через Н2 = Lin{H2, /1} — линейную оболочку, порождаемую базисным подпространством Н2 и элементом /1. Продолжая этот процесс, определим элементы /„ и подпространства Hn+i согласно алгоритму: п = Рйп/, Hn+i = Lin{Hn+i,/n}, n = 1,2,---- (0.1)
Важное свойство последовательных проекций отражено в нижеследующей лемме.
Лемма 2 Для произвольного элемента / Е Н и последовательности подпространств {Н& С Н, к = 1,2,.} для последовательных проекций {/w? п £ N} справедливо предельное равенство где / — некоторый элемент из замкнутой линейной оболочки, порождаемой подпространствами {Н&, к = 1,2,.}.
Для того, чтобы установить условия, при которых предел последовательных проекций {/„, п = 1,2,.} совпадает с искомой проекцией, введем следующее определение.
Определение Последовательность {Щ С Н, к = 1,2,.} назовем чередующейся, если каждый из ее элементов встречается в любой подпоследовательности {Щ, к = М, М + 1,.}, где М — произвольное положительное число.
Теорема 1 Если последовательность базисных подпространств {Hfc С Н, к = 1,2,.} чередующаяся, то для произвольного элемента / G Н последовательные проекции /„, п = 1,2,., построенные в соответствии с алгоритмом (0.1), сходятся к ортогональной проекции элемента / на замкнутую линейную оболочку базисных подпространств Н&, к — 1,2,.: но = Jim/п = РнС)/
Представленный алгоритм может быть успешно использован для решения задачи среднеквадратичной аппроксимации функции линейной комбинацией функций заданного набора. Действительно, такая задача эквиf(*i)\ t /Ы валентна задаче вычисления ортогональной проекции элемента / = f(Xp)) пространства Rp на подпространство, которое является линейной оболочкой N одномерных подпространств, каждое из которых определяется ((fk{xi)\ вектором (fk = составленным из значений одной из базисных
Wfc(Zp)/ функций, и нахождения коэффициентов разложения найденного вектора / по векторам ipi, <р2,., <pn- В п. 2.4.2 подробно описаны указанные этапы решения поставленной задачи. С помощью вспомогательной леммы 3 получены явные формулы для вычисления компонентов вектора / и коэффициентов, определяющих искомую аппроксимирующую функцию (леммы 4 и 5).
В п. 2.5 и 2.6 рассматриваются методы кусочно-параметрической и локальной аппроксимации функций (Катковник В. Я. [25], [26]), в основе которых лежит идея построения восстанавливающих функций на подмножествах множества аппроксимации.
Глава 2 завершается обсуждением проблемы выбора системы базисных функций.
Третья глава посвящена развитию рандомизированных алгоритмов стохастической оптимизации, адаптированных для решения задачи самообучения. Краткая постановка задачи обучения без учителя такова. Пусть на вход обучающейся опознающей системы поступают входные стимулы. Предположим, что каждый стимул принадлежит одному из классов, число которых фиксировано и равно I. Стимулам в признаковом пространстве X соответствуют их описания, которые будем обозначать через х. По последовательности ,. хп,., являющейся реализацией последовательности случайных величин с неизвестным законом распределения V, найти оценку Т набора = (г^, г*,., тк ^ рт = 1,2,.,/), доставляющего минимум функционалу среднего риска
F(T) = / Е Jk(T,x)qk(x,T)V(dx). х *=1
Здесь Т),к = 1,2,.,/ — штрафные функции, Jk(T, х), к = 1,2,., / — характеристические функции множеств Х*(Т):
Х*(Г) = €Е X : g*(s,T) < q*(x,T), j = 1,2,. , & - 1, qk(x,T)<qj(x,T), j = A + l,.,Z}, A = 1,2,.,/.
Для оптимизации функционала среднего риска часто используются различные градиентные алгоритмы. На практике возможность их использования ограничена тем, что точные значения градиента не всегда доступны. Кроме того, при решении задач оптимизации в условиях большой размерности реализация градиентных алгоритмов весьма трудоемка. Эти факторы обуславливают развитие подходов, основанных на аппроксимации градиента. Однако, псевдоградиентные процедуры также имеют серьезные недостатки: для доказательства состоятельности оценок приходится накладывать достаточно ограничительные условия на неконтролируемые возмущения; в многомерном случае приходится делать большое число наблюдений, что может оказаться трудно осуществимым. В последнее десятилетие интерес как зарубежных, так и российских исследователей вызывают рандомизированные алгоритмы оценивания, получившие развитие в работах Дж. Спала, Граничина О. Н., Поляка Б. Т., Цыбакова А. Б., ([6] - [13], [35], [61], [64] - [66]). В их основе лежит использование пробных возмущений, статистическая природа которых играет существенную роль при обосновании сходимости такого типа алгоритмов. Особенность рандомизированных алгоритмов заключается в том, что для аппроксимации градиента функции на каждом шаге можно использовать небольшое заранее фиксированное число ее измерений независимо от размерности задачи оптимизации. При этом рандомизированные алгоритмы сходятся при "почти произвольных" помехах (под этим понятием подразумевается достаточно широкий класс помех в наблюдениях, содержащий, в частности, детерминированные неизвестные, но ограниченные последовательности). В [13] была предложена идея использования рандомизированных алгоритмов оптимизации в задаче самообучения. В диссертации новые рандомизированные алгоритмы, адаптированные для решения задачи самообучения, были разработаны и обоснованы.
Рассматриваемая в третьей главе задача самообучения осложнена тем, что функции qk(•, •) не заданы аналитически, но их значения доступны измерению (может быть с помехами): yk(x,T)=qk(x,T) + vk, fc = l,2,.,/.
Через Y(x,T) будем обозначать /-мерный вектор, составленный из величин ук(х,Т), к = 1,2,.,/; через V — /-мерный вектор помех, через J(-,T) обозначим вектор-функцию, образованную характеристическими функциями Jk(T)(•), к = 1,2,.,/,
Формирование последовательности оценок оптимального набора % может быть проведено в соответствии с одним из представленных ниже рандомизированных алгоритмов стохастической оптимизации. Алгоритмы основаны на использовании наблюдаемой последовательности случайных независимых друг от друга векторов Дп 6 Rm, п = 1,2,., называемых пробным одновременным возмущением и составленных из независимых, бернуллиевских, равных ±1 случайных величин.
Зафиксируем некоторый начальный набор 7о € Rmxi и выберем последовательности положительных чисел, стремящиеся к нулю: {ап} и {(Зп}-Рассмотрим следующие алгоритмы построения последовательности оценок оптимального набора 7^:
Т± = Tn-i ± PnKJT(x
0.2)
Тп = Рт (tn-1 - anJT(xn,tn-Oy(x"'7;+^Y(x"'7;")AnJrK,r»-i)) ,
Tn = *Тп—i + (3nAnJ (ЖгпТп—l),
0.3)
Тп = Рт (tn-1 - ^JT(xn,tn^)Y(xn,tn)AnJT(xn,rn-i)) .
Здесь Рт — оператор проектирования на некоторое выпуклое замкнутое ограниченное подмножество Т С RmxZ, которое содержит точку Т*. Будем предполагать, что такое множество известно.
В п.3.1 рассматривается случай однотипных функций qk(x,7~), к = 1,2,.,/, и предполагается, что функции qk(x,T) не зависят от векторных элементов набора Т, отличных от к-то: qk(x,T) = qk(x,rk). Таким образом, считаем, что qk(x,T) = q(x,rk), где ?(-,•) : X х Rm —> R — некоторая общая для разных классов штрафная функция.
Сформулируем предположения, которым должна будет удовлетворять штрафная функция <?(-,•)•
П.1. Функция q(x, •) : Rm —> R — дифференцируема при любом х € X и ее градиент удовлетворяет условию Липшица, т. е.
VT£(s,ri) - VTq(x,r2)\\ < М\\П - r2||, Vrbr2 Е Rm с некоторой постоянной М > 0, не зависящей от х (Е X.
П.2. При любом т £ Rm функции q(-,r) и Vr</(-,r) равномерно ограничены на X.
П.З. Каждая из функций имеет единственный минимум в Rm в некоторой точке тк и t-tk,vrfk(t))>n\\t-tk\\\ Vr G Rm с некоторой постоянной ц > О (условие сильной выпуклости).
Здесь и далее используются обозначения (•,•} и || • || для скалярного произведения и нормы в Rm. Обозначим dm ах = max max I q(x,rk)\.
Для оценок, доставляемых предложенными алгоритмами, установлены условия сходимости к истинному значению неизвестных параметров. Теорема 2 Пусть выполнены условия:
1) обучающая последовательность xi,X2, • • ■ ,хп,. состоит из независимых, одинаково распределенных векторных случайных величин с таким законом распределения, что они с ненулевой вероятностью принимают значения в каждом из I классов в признаковом пространстве;
2) функция q{•,•) удовлетворяет (П.1 - П.З);
3) Vn > 1 случайные векторы V^, V^ . и xi,x2,. , не зависят от хп,Ап, а случайный вектор хп не зависит от Ап;
4) E{vn} < оо, < а2п, Н < Cv, Cv > 0;
5) из выполнения неравенства \q(x,r)\ < dmax для некоторых k G {1,2,.,/}, X е Х.к(Т*) ит e~Rm следует W G Хг(7^), i^k, i € {1,2,.,/};
6) En — и ап 0, /Зп 0, ап{3~2 —» 0 при п —> оо.
Если для последовательности оценок {Тп}, вычисляемых по алгоритму (0.2) (или алгоритму (0.3)), выполнено
Тдп (j{xn,tn-i),Q(xn,tni)} < dmax + Cv, то последовательность оценок {Тп} сходится в среднеквадратичном
А смысле: Е{||7^ — } —> 0 при п -4 оо, к одному из наборов 71, состоящему из векторов т*, ., т[.
Если, более того, En+ апРп2 < то 7~п —> % при п —> оо с вероятностью единица.
Глава 3 завершается результатами компьютерного моделирования работы алгоритмов (0.2) и (0.3).
Глава 4 посвящена применению развитых ранее алгоритмов при использовании подхода биологизации к решению задач аппроксимации и распознавания. Под биологизацией понимается построение и исследование моделей поведения сложных объектов и способов управления ими на основе имитации механизмов, заимствованных у живой природы. Одно из направлений этого подхода получило название эвристической самоорганизации и отражает основные принципы массовой селекции растений, и животных, другое связано с моделированием нейронных систем.
Принцип селекции или эвристической самоорганизации нашел свое отражение в одном из методов аппроксимации функций, развитом А. Г. Ивах-ненко ([21, 33]) и получившим название метод группового учета аргументов (МГУА). Кратко этот метод может быть описан следующим образом: на каждом шаге последовательной аппроксимации исходная конечная система функций специальным образом расширяется, из полученной расширенной системы выбираются всевозможные наборы из заданного числа функций и для каждого набора решается стандартная задача аппроксимации. Из функций, давших наилучшее приближение, формируется система, рассматриваемая как исходная на следующем шаге аппроксимации. Достоверность МГУА подтверждается многими численными примерами ([21]). Обоснование метода может быть проведено с помощью метода последовательного проектирования. В п. 4.1 представлен модифицированный метод группового учета аргументов, в котором на каждом шаге происходит возврат к функциям из исходной системы.
Знания о функционировании нервной системы живых существ легли в основу одной из областей современной теории интеллектуальных вычислительных систем, которая связана с построением и применением искусственных нейронных сетей (ИНС). В течение последнего десятилетия данная тематика завоевывает все большую популярность, ей посвящается значительное количество современных научных публикаций, например, монографии Галушкина А. И. ([5]), Осовского С. ([32]), Терехова В. А., Ефимова Д. В. и Тюкина И. Ю. ([39]), работы зарубежных авторов [57], [62], [67], [68]. Популярность тематики нейронных сетей в значительной степени связана с тем, что модели, разработанные в ее рамках, все более серьезно рассматриваются в качестве методологического базиса для создания сверхскоростных технических устройств параллельной обработки информации. Во второй части четвертой главы дано краткое описание биологических основ функционирования нейронов и нейронных сетей, рассмотрены некоторые подходы к описанию искусственных нейронных сетей. Основу функционирования нейронных сетей составляют алгоритмы обучения, позволяющие оптимизировать их весовые коэффициенты. В качестве алгоритмов обучения нейронных сетей могут быть успешно использованы развитые в настоящей работе алгоритмы. В качестве примера применения представленных рандомизированных алгоритмов рассмотрена задача обучения нейронной сети Хебба-Хопфилда, и предложен метод ее решения, использующий представленные в третьей главе рекуррентные рандомизированные алгоритмы самообучения.
Похожие диссертационные работы по специальности «Дискретная математика и математическая кибернетика», 01.01.09 шифр ВАК
Стохастические алгоритмы внешних аппроксимаций для решения выпуклых задач полубесконечной оптимизации1999 год, кандидат физико-математических наук Федосова, Алина Валерьевна
Рандомизированные алгоритмы стохастической оптимизации и их применение для повышения эффективности работы вычислительных комплексов и сетей2005 год, кандидат физико-математических наук Сысоев, Сергей Сергеевич
Математические модели и методы структурного анализа рядов наблюдений на основе сепарации пространства параметров2009 год, кандидат технических наук Звягин, Петр Николаевич
Методы псевдовыпуклого программирования с параметризацией направлений и аппроксимацией множеств2009 год, доктор физико-математических наук Заботин, Игорь Ярославич
Обучение нейронных сетей: Методы, алгоритмы, тестовые испытания, прим. прил.1997 год, кандидат физико-математических наук Гилев, Сергей Евгеньевич
Заключение диссертации по теме «Дискретная математика и математическая кибернетика», Измакова, Ольга Анатольевна
Заключение
На защиту выносятся следующие результаты:
1. Метод последовательного проектирования, предназначенный для нахождения проекции элемента гильбертова пространства на некоторое подпространство через проекции этого элемента на подпространства более низкой размерности (п. 2.4.1).
2. Обоснование сходимости метода последовательного проектирования (лемма 2) и условия сходимости последовательных проекций к ортогональной проекции заданного элемента на подпространство, являющееся замкнутой линейной оболочкой подпространств из заданной системы (теорема 1).
3. Явные формулы для расчета коэффициентов восстанавливающей функции при решении задачи среднеквадратичной аппроксимации методом последовательного проектирования (п. 2.4.2, леммы 4,5).
4. Рандомизированные алгоритмы стохастической оптимизации предназначенные для решения задачи самообучения (п. 3.1).
5. Достаточные условия состоятельности оценок рандомизированных алгоритмов стохастической аппроксимации (теорема 2).
Список литературы диссертационного исследования кандидат физико-математических наук Измакова, Ольга Анатольевна, 2005 год
1. Акмаев В. Р., Фомин В. Н. Кусочно-параметрическая аппроксимация непрерывных функций. // Деп. в ВИНИТИ, N 481-В-96. 16 с.
2. Альберт А. Регрессия, псевдоинверсия и рекуррентное оценивание. М.: Наука, 1977. 223 с.
3. Буцев А. ВПервозванский А. А. Локальная аппроксимация на искусственных нейросетях // Автоматика и телемеханика. 1995. N 9. С. 127-136.
4. Галушкин А. И. Теория нейронных сетей. Книга 1. М.: ИПРЖР, 2000. 416 с.
5. Граничин О. Н. Алгоритм стохастической аппроксимации с возмущением на входе для идентификации статического нестационарного дискретного объекта // Вестн. ЛГУ. Сер. 1. 1988. Вып. 3. С. 92-93.
6. Граничин О. Н. Об одной стохастической рекуррентной процедуре при зависимых помехах в наблюдении, использующей на входе пробные возмущения // Вестн. ЛГУ. Сер. 1. 1989. Вып. 1. С. 19-21.
7. Граничин О. Я. Стохастическая аппроксимация с возмущением на входе при зависимых помехах наблюдения // Вестн. ЛГУ. 1989. Сер. 1. Вып. 4. С. 27-31.
8. Граничин О. Н. Процедура стохастической аппроксимации с возмущением на входе // Автоматика и телемеханика. 1992. N 2. С. 97-104.
9. Граничин О. Н. Оценивание параметров линейной регрессии при произвольных помехах // Автоматика и телемеханика. 2002. N 1. С. 30-41.
10. Граничим, О. Н. Рандомизированные алгоритмы стохастической аппроксимации при произвольных помехах // Автоматика и телемеханика. 2002. N 2. С. 44-55.
11. Граничин О. Н. Неминимаксная фильтрация при неизвестных ограниченных помехах в наблюдениях j j Автоматика и телемеханика.2002. N 9. С. 125-133.
12. Граничин О. Н., Поляк Б. Т. Рандомизированные алгоритмы оценивания и оптимизации при почти произвольных помехах. М.: Наука,2003. 291 с.
13. Гелиг А. X. Об одном L-оптимальном алгоритме обучения опознающих систем // Вычислительная техника и вопросы кибернетики. Вып. 5. Л., 1968. С. 74-79.
14. Гулъчак О. А., Фомин В. Н. Задача аппроксимации функции в теории распознавания образов. 4.1. Метод последовательного проектирования и персептронная реализация алгоритмов аппроксимации // Деп. в ВИНИТИ, N 1063-В-99. 32 с.
15. Гулъчак О. А., Фомин В. Н. Задача аппроксимации функции в теории распознавания образов. 4.2. Нейроподобные системы распознавания // Деп. в ВИНИТИ, N 1817-В-99. 25 с.
16. Дуда Р., Харт П. Распознавание образов и анализ сцен. М.: Мир, 1976. 511 с.
17. Ермаков С. М., Жиглявский А. А. Математическая теория оптимального эксперимента. М.: Наука, 1987. 320 с.
18. Жилинскас А. Глобальная оптимизация. Вильнюс: Мокслас, 1986. 165 с.
19. Загоруйко П. Г. Методы распознавания и их применение. М., 1972. 206 с.
20. Ивахненко А. Г., Зайченко Ю. П., Димитров В. Д. Принятие решений на основе самоорганизации. М.: Советское радио, 1976. 280 с.
21. Измакова О. А. Рандомизированные алгоритмы самообучения для нейронных сетей. // Электронный журнал "Дифференциальные уравнения и процессы управления", N 2, 2005 г. С. 122-142.
22. Измакова О. А. Рандомизированные алгоритмы самообучения для настройки ассоциативных нейронных сетей. // В сб. "Стохастическая оптимизация в информатике" под ред. О. Н. Граничина. Изд-во С.-Петерб. ун-та. 2005. С. 81-102.
23. Измакова О. А., Сысоев С. С. Алгоритм стохастической оптимизации с возмущением на входе в задаче самообучения. // Труды Международной школы-семинара "Адаптивные роботы — 2004". М.-СПб. 2004. С. 49-52.
24. Катковник В. Я. Линейные оценки и стохастические задачи оптимизации. М.: Наука, 1976. 488 с.
25. Катковник В. Я. Непараметрическая идентификация и сглаживание данных. М.: Наука, 1985. 336 с.
26. Козинец Б. Н. Рекуррентный алгоритм разделениядвух множеств. // В кн.: Алгоритм обучения распознаванию образов. М., 1973. С. 4349.
27. Лиховидов В. Н., Фомин В. Н. Математическая постановка задачи классификации изображений // Вестник ЛГУ. Сер.1. 1976. Вып.З (N 19). С. 61-68.
28. Лоэв М. Теория вероятностей. М.: ИЛ, 1962. 719 с.
29. МакКаллок У., Питтс В. Логическое исчисление идей, относящихся к нервной активности // Сб. "Автоматы", пер. с англ.: Изд-во иностр. лит, 1959.
30. Надарая Э. А. Об оценке регрессии // Теория вероятностей и ее применения. 1965. Т. 10. С. 199-203.
31. Осовский С. Нейронные сети для обработки информации // пер. с польского И. Д. Рудинского. М.: Финансы и статистика, 2002. 344 с.
32. Перцептрон — система распознавания образов. Под общ. ред. А. Г. Ивахненко. Киев, 1975. 418 с.
33. Поляк Б. Т. Введение в оптимизацию. М.: Наука, 1983. 384 с.
34. Поляк Б. Т., Цибаков А. Б. Оптимальные порядки точности поисковых алгоритмов стохастической аппроксимации // Проблемы передачи информации. 1990. N 2. С. 45-53.
35. Растригин JI. А. Адаптация сложных систем. Рига: Зинатне, 1981. 386 с.
36. Розенблатт Ф. Принципы нейродинамики (персептроны и теория механизмов мозга). М. 1965, 480 с.
37. Розенблатт Ф. Стратегические подходы к исследованию моделей мозга. — В кн.: Принципы самоорганизации. М, 1966. С. 469-490.
38. Терехов В. А., Ефимов Д. В., Тюкин И. Ю. Нейросетевые системы управления. СПб: Изд-во Спб ун-та, 1999. 265 с.
39. Тимофеев А. В. Методы обучения и самоорганизации полиномиальных нейронных сетей в задачах распознавания образов.// Труды 11-ой международной конференции "Математические методы распознавания образов". Пущино, 2003.
40. Тимофеев А. В. Методы высококачественного управления, интеллектуализации и функциональной диагностики автоматических систем. // "Мехатроника, автоматизация и управление", 2003. С. 13-17.
41. Тимофеев А. В. Эволюция нейроинформатики: от персептронов к квантовым нейрокомпьютерам // Информ. технологии, N 2, 2003. С. 51-55.
42. Фомин В. Н. Математическая теория обучаемых опознающих систем. JL: Изд-во Ленингр. ун-та, 1976. 236 с.
43. Фомин В. Н. Рекуррентное оценивание и адаптивная фильтрация. М.: Наука, 1984. 288 с.
44. Фомин В. Н.} Измакова О. А. Об одном алгоритме распознавания образов. // Труды Первой международной конференции по мехатро-нике и робототехнике. СПб, 2000. С. 355-359.
45. Фомин В. Н., Фрадков A. Л., Якубович В. А. Адаптивное управление динамическими объектами. М.: Наука, 1981. 448 с.
46. Фукунага К. Статистическая теория распознавания образов. М.: Мир, 1979. 367 с.
47. Цыпкин Я. 3. Основы теории обучающихся систем. М.: Наука, 1970. 252 с.
48. Цыпкин Я. 3., Келъманс Г. К. Рекуррентные алгоритмы самообучения. // Изв. АН СССР. Техническая кибернетика, 1967, N 5. С. 78-87.
49. Шлезингер М. И. О самопроизвольном различении образов // Сб. Читающие автоматы. Киев, Наукова думка, 1965. С. 24-34.
50. Эйкхофф 77. Основы идентификации систем управления. М.: Мир, 1975. 683 с.
51. Якубович В. А. Машины, обучающиеся распознаванию образов //В кн.: Методы вычислений, вып. 2. Д., 1963. С. 95-131.
52. Якубович В. А. Некоторые общие теоретические принципы построения обучаемых опознающих систем // В кн.: Вычислительная техника и вопросы программирования, вып. 4, JL, 1965. С. 3-72.
53. Якубович В. А. Рекуррентные конечно-сходящиеся алгоритмы решения систем неравенств // Доклады АН СССР. 1966. Т. 166. N 6. С. 1308-1311.
54. Blum J. R Multidimensional stochastic approximation // Ann.Math.Statist. 1954. Vol.9. P.737-744.
55. Granichin 0. N. Linear regression and filtering under nonstandard assumptions (Arbitrary noise) // Trans on AC, 2004, vol. 49, oct., N 10, P. 1830-1835.
56. Haykin 5., Neural Networks: A Comprehensive Foundation. New York: Macmillan, 1984.
57. Kiefer J., Wolfowitz J. Statistical estimation on the maximum of a regression function // Ann. Math. Statist. 1952. Vol.23. P.462-466.
58. Likhovidov V. Variational approach to unsupervised learning algorithms of neural networks // Neural Netw.(USA). 1997. Vol. 10. N 2. P. 273-289.
59. Lippmann P. R. An introduction to computing with neural nets. IEEE ASSP Magazine, 1987, April, 4-22.
60. Polyak В. Т., Tsybakov A. B. On stochastic approximation with arbitrary noise (the KW case) / In: Topics in Nonparamctric Estimation. Khasminskii R.Z. ed. // Advances in Soviet Mathematics, Amer. Math. Soc. Providence. 1992. N 12. p. 107-113.
61. Poznyak A. S., Sanches E. N., Wen Yu Dynamic Neural Networks for Nonlinear Control: Identification, State Estimation and Trajectory Tracking. World Scientific, 2001.
62. Robbins H., Siegmund D., A convergence theorem for nonnegative almost super-marlingales and some applications // In: Optimizing Methods in Statistics, J.S.Rustagi ed. Academic Press, NY. 1971. P. 233-257.
63. Spall J. C., A stochastic approximation technique for generating maximum likelihood parameter estimates j j In: Proceedings of the American Control Conference. 1987. P. 1161-1167.
64. Spall J. C. Multivariate stochastic approximation using a simultaneous perturbation gradient approximation / / IEEE Transactions on Automatic Control, 1992, vol. 37. P. 332-341.
65. Spall J. C. An overview of the simultaneous perturbation method for efficient optimization // Johns Hopkins APL Technical Digest, 1998, vol. 19. P. 482-492.
66. Vidyasagar M. A Theory of Learning and Generalization with Applications to Neural Networks and Control Systems. Springer, London, 1997.
67. White H. Artifical Neural Networks. Oxford: Blackwell, UK, 1992.
Обратите внимание, представленные выше научные тексты размещены для ознакомления и получены посредством распознавания оригинальных текстов диссертаций (OCR). В связи с чем, в них могут содержаться ошибки, связанные с несовершенством алгоритмов распознавания. В PDF файлах диссертаций и авторефератов, которые мы доставляем, подобных ошибок нет.