Методы структурного анализа изображений трехмерных сцен тема диссертации и автореферата по ВАК РФ 05.13.01, кандидат наук Малашин, Роман Олегович

  • Малашин, Роман Олегович
  • кандидат науккандидат наук
  • 2014, Санкт-Петербург
  • Специальность ВАК РФ05.13.01
  • Количество страниц 155
Малашин, Роман Олегович. Методы структурного анализа изображений трехмерных сцен: дис. кандидат наук: 05.13.01 - Системный анализ, управление и обработка информации (по отраслям). Санкт-Петербург. 2014. 155 с.

Оглавление диссертации кандидат наук Малашин, Роман Олегович

ОГЛАВЛЕНИЕ

ИСПОЛЬЗОВАННЫЕ СОКРАЩЕНИЯ

ВВЕДЕНИЕ

1 АНАЛИЗ СУЩЕСТВУЮЩИХ МЕТОДОВ СТРУКТУРНОГО АНАЛИЗА ИЗОБРАЖЕНИЙ

1.1 Структурные методы, абстрагирующиеся от индивидуальных особенностей зрительных образов

1.1.1 Методы, основанные на контурном описании изображения

1.1.2 Методы, основанные на локальных признаках

1.1.3 Способы учета геометрического положения структурных элементов в пространстве изображения

1.2 Построение структурного описания путем обучения

1.3 Выводы

2 СОПОСТАВЛЕНИЕ ИЗОБРАЖЕНИЙ ТРЕХМЕРНЫХ СЦЕН С ИСПОЛЬЗОВАНИЕМ КЛАСТЕРНОГО АНАЛИЗА

2.1 Кластеризация параметров сопоставлений ключевых точек

2.1.1 Обнаружение объектов

2.1.2 Сопоставление произвольных трёхмерных сцен

2.1.3 Вероятность образования кластера ключевых точек

2.2 Верификация кластерной гипотезы

2.2.1 Метод наименьших квадратов

2.2.2 Алгоритм ЯАКБАС

2.3 Предварительная обработка сопоставлений

3 ПОИСК ИЗОБРАЖЕНИЙ ТРЕХМЕРНЫХ СЦЕН В БАЗЕ ДАННЫХ С ИСПОЛЬЗОВАНИЕМ КОНЦЕПЦИИ ВИЗУАЛЬНЫХ СЛОВ И КЛАСТЕРНОГО АНАЛИЗА

3.1 Применение визуальных слов с использованием структурной информации

3.2 Составление словаря визуальных слов

3.3 Организация процедуры кластеризации с помощью преобразования Хафа

3.4 Выводы

4 ПРАКТИЧЕСКИЕ РЕЗУЛЬТАТЫ

4.1 Общие особенности практической реализации

4.2 Сопоставление изображений трехмерных сцен

4.3 Поиск изображений трехмерных сцен в базе данных с использованием гистограмм визуальных слов

4.4 Использование структурных методов для улучшения плотных карт глубины

4.4.1 Автоматическая оценка диапазона диспаратностей

4.4.2 Изменение матрицы корреляционной энергии

4.4.3 Результаты

4.4.4 Выводы

4.5 Сопоставление аэрокосмических снимков

ЗАКЛЮЧЕНИЕ

ЛИТЕРАТУРА

ИСПОЛЬЗОВАННЫЕ СОКРАЩЕНИЯ

АП - аффинное преобразование; БД - база данных;

ГВС - гистограмма визуальных слов; КТ — ключевая точка; МНК - метод наименьших квадратов; ПГП - преобразование группы подобия; СА - структурный анализ;

СЛАУ - система линейных алгебраических уравнений; СЭ - структурный элемент.

Рекомендованный список диссертаций по специальности «Системный анализ, управление и обработка информации (по отраслям)», 05.13.01 шифр ВАК

Введение диссертации (часть автореферата) на тему «Методы структурного анализа изображений трехмерных сцен»

ВВЕДЕНИЕ

Актуальность проблемы. В настоящее время автоматический анализ изображений стал отдельным научным направлением. Результаты научных исследований в этой сфере нашли широкое применение в системах безопасности, робототехнике, медицине, контроле на производстве, игровой индустрии и других областях. Целью анализа изображений является извлечение какой-либо полезной информации из изображений, которая может быть чрезвычайно разнообразна.

Типовыми задачами объектно-ориентированной автоматической обработки изображений являются распознавание отпечатков пальцев, текста, обнаружение и распознавание лиц. Более сложной задачей является анализ изображений в условиях априорной неопределенности сюжета. Использование по-настоящему универсальных методов структурного анализа (СА) позволяет существенно сократить расходы на разработку системы для конкретного применения, а также увеличить эффективность ее использования в условиях малой предсказуемости содержания изображений.

При получении фотоснимка происходит потеря информации о дальности до объектов сцены. Из-за этого во многих задачах принято аппроксимировать форму

I

исследуемых объектов плоскостью, что позволяет абстрагироваться от трёхмерного происхождения изображений. Методы, использующие это упрощение, не применимы для анализа объектов сложной формы.

Сложности также могут вызывать ситуации, когда требуется распознавать не отдельные объекты, а всю трёхмерную сцену целиком, поскольку ее тяжело представить в виде небольшого числа эталонных изображений из-за того, что снимки с разных точек внутри трёхмерной сцены выглядят совершено по-разному.

Все эти сложности необходимо преодолевать при решении задачи автоматической навигации робота или низколетящего беспилотного аппарата,

причем высокие требования предъявляются ко времени обработки изображения. В таких условиях могут быть полезны методы, оперирующие локальными признаками изображений, поскольку отдельные локальные участки изображения в меньшей степени подвержены ракурсным искажениям, чем все изображение целиком. При этом надежность распознавания изображения в большой степени зависит от робастности методов учета взаимного пространственного положения локальных признаков. В настоящее время применяемые на практике методы учета геометрии изображений трехмерных сцен не позволяют достичь требуемой в практических приложениях точности, робастности и скорости сопоставления изображений.

Целью диссертационной работы является:

Разработка математических методов и алгоритмов, обеспечивающих повышение вероятности корректного распознавания изображений трёхмерных сцен.

. ' ' »* * ' ( > - , 1

Поставленная цель достигается путем решения следующихзадач:

1. Разработка методов учета геометрии трехмерных сцен при сопоставлении локальных признаков в условиях априорной непредсказуемости сюжета изображений.

2. Разработка методов удаления некорректных сопоставлений локальных признаков без привлечения информации о пространственном положении локальных признаков.

3. Разработка методов, обеспечивающих увеличение быстродействия алгоритмов сопоставления изображений трехмерных сцен и уменьшение объема памяти, необходимой для хранения описаний изображений.

Методы исследования. Для решения указанных задач в работе применялись методы системного анализа, аналитической геометрии,

компьютерного моделирования, машинного обучения, обработки и распознавания

изображений.

Научная новизна.

1. Предложен способ верификации кластерных гипотез сопоставлений локальных признаков с помощью модифицированного алгоритма КА^АС и метода наименьших квадратов. Низкая вычислительная сложность алгоритма ЯАЫБАС достигается за счет проверки случайных выборок сопоставлений на их согласованность по параметрам между собой и с параметрами восстановленного по ним преобразования группы подобия (ПГП).

2. Предложен способ уменьшения количества ошибочных сопоставлений ключевых точек перед проведением структурного анализа за счет удаления структурных соответствий «многие-к-одному», позволяющий увеличить соотношение корректных сопоставлений к ошибочным, а также уменьшить число кластеров ошибочных сопоставлений.

3. Предложен способ генерации сопоставлений ключевых точек (КТ) по гистограммам визуальных слов (ГВС). При поиске изображений трехмерных сцен в использованной базе данных предлагаемые методы СА параметров сгенерированных сопоставлений КТ обеспечивают уменьшение количества ошибок второго рода на 36% и десятикратное уменьшение количества ошибок первого рода.

4. Усовершенствованы «энергетические» алгоритмы построения плотных карт глубины за счет использования диспаратностей сопоставленных структурных элементов. Увеличение скорости работы алгоритмов стереозрения достигается за счет более точной оценки диапазона допустимых диспаратностей, а увеличение точности восстановленной плотной карты глубины — за счет использования диспаратностей сопоставленных структурных элементов в качестве опорного списка диспаратностей для плотной карты глубины.

Практическая значимость работы.

1. Разработанные методы и алгоритмы полезны при автоматическом анализе изображений в условиях априорной неопределенности сюжета изображения,

к,~ '' V ; < ' ' * .

при наличии сложных ракурсных и яркостных искажений.

2. Предложенные методы и алгоритмы позволяют надежно сопоставлять изображения трехмерных сцен, причем допускается значительное изменение позиции фотокамеры при съемке сцен, а также перемещение отдельных объектов в сцене.

3. Разработанные методы дают возможность извлекать информацию о расстоянии до объектов сцены по взаимному смещению локальных признаков сопоставленных изображений. В рамках диссертационной работы предложены способы использования этой информации в целях увеличения эффективности алгоритмов построения плотных карт глубины.

4. Разработанные методы и алгоритмы применимы в задачах сопоставления аэрокосмических снимков, сделанных сенсорами различающихся типов. Методы робастны к наличию сезонно-суточных и антропогенных изменений местности, изображенной на анализируемых снимках. Это позволяет выявлять локальные изменения объектов наблюдения во времени, комплексировать изображения, сформированные датчиками разных типов.

5. Предложенные методы учета структурной информации при использовании ГВС позволяют значительно сократить время поиска изображения в базе данных и объемы памяти необходимой для хранения базы данных.

Реализация результатов работы. Результаты работы использованы в

разработках ОАО «ГОИ им. С. И. Вавилова», в компании «LG Electronics» и ООО

«Пекод», что подтверждают прилагаемые акты о внедрении.

Достоверность полученных в диссертационной работе результатов

обеспечивается корректностью использованных теоретических и

экспериментальных методов исследования, соответствием сформулированных

положений и выводов результатам их экспериментальной проверки.

На защиту выносятся следующие положения и результаты:

1. Метод удаления ошибочных сопоставлений локальных признаков с помощью кластеризации параметров локальных преобразований группы подобия, обеспечивающий возможность корректно сопоставлять изображения трехмерных сцен при наличии до 95% некорректно сопоставленных локальных признаков. .

2. Алгоритм удаления сопоставлений «многие-к-одному», который позволяет увеличить пропорцию корректных сопоставлений, а также уменьшить количество кластеров некорректных сопоставлений.

3. Совместное использование параметров ключевых точек и гистограмм визуальных слов. позволяет значительно снизить потребляемые при структурном анализе вычислительные ресурсы без существенного уменьшения надежности сопоставления. ; • ч м;

4. Усовершенствование алгоритмов сопоставления гистограмм визуальных слов с помощью дополнения их структурным анализом параметров сгенерированных сопоставлений, обеспечивающее уменьшение количества ошибок второго рода на 36% и десятикратное уменьшение количества ошибок первого рода. •■> У"' *i; ; • •

5. Метод® использования диспаратностсй сопоставленных структурных элементов в задаче стереозрения, обеспечивающий ' снижение времени обработки изображений и повышающий точность восстанавливаемой карты глубины. '••v"r- ! -■■* v--'^'- ; ■

Апробация работы. Основные результаты работы были представлены:

• на двух международных конференциях (ThiM international topical meeting «Optical sensing and Artificial Vision», первая международная научная школа «Методы цифровой обработки изображений в оптике и фотонике»);

• на одной Всероссийской конференции (вторая Всероссийская научно-практическая конференция молодых ученых и специалистов «Инновационные подходы к развитию вооружения, военной и специальной техники»);

• на пяти конференциях и семинарах регионального масштаба (Третья молодежная школа-семинар «Управление и обработка информации в технических системах», первая и вторая конференции молодых ученых и специалистов «Будущее оптики», научная сессия СПб ГУАП 2011, 68-я региональная конференция студентов, аспирантов и молодых ученых «Студенческая весна 2014»);

• на ХЫ1 и ХЫП научных и учебно-методических конференциях профессорско-преподавательского и научного состава в Университете ИТМО.

Два доклада были отмечены:

• дипломом за первое место в конкурсе докладов «Управление и обработка информации в технических системах» третьей молодежной школы-семинара в г. Таганроге в 2011 г;

• дипломом победителя конкурса «за лучший доклад на научной школе» в рамках конгресса молодых ученых в г. Санкт-Петербург в 2014 г.

В 2014 за работу на тему «Структурный анализ изображений трехмерных сцен» в «Государственном оптическом институте им. С.И. Вавилова» решением конкурсной комиссии автору диссертации была назначена стипендия имени академика Рождественского первой степени.

Публикации. По материалам диссертации опубликованы 8 печатных работ, включая 3 статьи в журналах, рекомендованных ВАК-

Личный вклад. Личный вклад автора состоял в постановке задач и разработке математических, алгоритмических методов их решения, экспериментальной

проверке разработанных методов. Все основные результаты изложенные в диссертации получены автором лично или при непосредственном его участии.

Структура и объем работы. Диссертация состоит из введения, четырех глав, заключения, списка литературы из 172 наименований. Содержание работы изложено на 155 страницах. В работе содержится 31 рисунок и 3 таблицы.

В первой главе проведен анализ современных методов СА изображений. В частности, поясняется, с чем связаны сложности при анализе изображений трехмерных сцен при использовании существующих методов. По результатам-проведенного анализа были выбраны наиболее перспективные методы анализа изображений трехмерных сцен, не требующие предварительного обучения классификатора. В качестве таких методов были выбраны методы, оперирующие локальными признаками, которые могут быть независимо сопоставлены друг с другом. В общем случае локальные признаки могут использоваться для сопоставления изображений трехмерных сцен без привлечения структурной информации, но проведенное исследование алгоритмов сопоставления локальных признаков показало, что качество сопоставления изображений в большой степени связано с робастностью выбранной модели учета пространственного положения сопоставленных локальных признаков, а не с конкретным типом используемых детекторов и дескрипторов КТ. По результатам проведения анализа существующих методов ставится задача разработки методов учета геометрии" трехмерных сцен для повышения робастности алгоритмов распознавания, основанных на локальных признаках. В качестве перспективного направления исследований предлагается исследовать направление кластерного анализа параметров КТ.

Во второй главе сформулированы наиболее важные положения, ставшие основой предлагаемых алгоритмов анализа изображений трехмерных сцен. Продемонстрировано, что алгоритмы кластерного анализа параметров

сопоставлений КТ могут быть применимы для сопоставления изображений трехмерных сцен - для этого следует проводить кластеризацию параметров локальных преобразований группы подобия (ПГП), задаваемых отдельными сопоставлениями. Показывается, что вероятность появления кластеров ошибочных сопоставлений в этом пространстве ниже, чем вероятность появления, кластеров корректных сопоставлений, но все равно достаточно велика, и требуется построение быстрой и надежной процедуры верификации кластерных гипотез. Также показывается, что верификацию кластерных гипотез при сопоставлении изображений трехмерных сцен целесообразно проводить в пространстве параметров ПГП, а не в пространствах параметров более общих аффинных и проективных преобразований. Предлагается использование процедуры восстановления параметров ПГП по двум случайно выбранным сопоставлениям, демонстрируется, что такой способ верификации кластерных гипотез позволяет получить лучшие результаты по сравнению с использованием метода наименьших квадратов (МНК) и методов получения параметров преобразования из статистики. Для обеспечения низкой вычислительной сложности алгоритмов распознавания предлагается проводить проверки на* согласованность параметров сопоставлений случайных выборок с параметрами преобразования восстановленными по координатам КТ этих сопоставлений. Теоретически обосновывается возможность отказа от ресурсоемкого этапа подсчета сопоставлений кластера, поддерживающих восстановленные параметры. В третьем разделе главы проводится исследование методов предварительного удаления ошибок и показывается, что предлагаемый метод удаления сопоставлений «многие-к-одному» позволяет увеличить пропорцию корректных сопоставлений к ошибочным, а также уменьшить количество ложных кластеров, вследствие чего его использование более оправдано при проведении кластерного анализа, чем использование других известных методов.

В третьей главе рассмотрена задача поиска тестового изображения трехмерной сцены в базе данных (БД). Для уменьшения времени поиска была

использована концепция визуальных слов, в рамках которой изображения описываются с помощью ГВС, а также словаря визуальных слов. Для повышения дискриминационных способностей были использованы методы СА, предложенные во второй главе данной диссертации. Предлагается способ генерации сопоставлений ключевых точек по сопоставленным ГВС, который позволяет получать сопоставления КТ быстрее, чем путем сравнения дескрипторов в многомерном пространстве признаков. В главе показывается, что

9

выбор сравнительно небольших словарей визуальных слов позволяет получить существенную экономию необходимой памяти и вычислительных ресурсов по сравнению с использованием описания каждого изображения дескрипторами ключевых точек. Делается вывод о том, что предлагаемые алгоритмы генерации сопоставлений по двум ГВС могут рассматриваться как способ поиска приближенно ближайших соседей в пространстве признаков дескрипторов КТ. Такой способ обеспечивает значительную экономию памяти, необходимой для хранения описаний изображений БД.

В этой главе также предложен способ уменьшения количества кластеров параметров некорректных сопоставлений (в дальнейшем для краткости -кластеров сопоставлений) за счет частичного игнорирования граничного эффекта при проведении преобразования Хафа, в результате чего достигается снижение, вычислительной сложности при очень незначительном уменьшении количества распознанных изображений.

В четвертой главе описаны подробности практической реализации предложенного метода сопоставления изображений трехмерных сцен на основе их описания дескрипторами КТ, а также приведены результаты решения практически важных задач. Предложен способ снижения вычислительной сложности и объема требуемой памяти при выполнении преобразования Хафа с помощью использования хеш-таблиц.

Приведены результаты применения предложенных методов сопоставления локальных признаков при решении следующих практических задач: 1. Сопоставление изображений трехмерных сцен.

2. Поиск изображений трехмерных сцен в БД.

3. Построение плотных карт глубины.

4. Сопоставление аэрокосмических фотоснимков.

Приводятся результаты экспериментов, которые показывают, что предложенные методы и алгоритмы, основанные на кластерном анализе параметров сопоставленных КТ, при решении задачи сопоставления изображений трехмерных сцен значительно превосходят методы, основанные на учете эпиполярной геометрии, а разработанная программа имеет лучшие характеристики, чем альтернативное программное обеспечение. Демонстрируется возможность распознавания динамических сцен. При рассмотрении задачи поиска, изображений в БД продемонстрировано, что с помощью использования словаря визуальных слов можно добиться очень быстрого поиска изображений трехмерных сцен, а применение методов кластерного анализа к результатам сопоставления существенно увеличивает вероятность корректного сопоставления при сохранении высоких скоростных характеристик. При построении плотных карт глубины с помощью «энергетических» методов предлагается использовать диспаратности сопоставленных структурных элементов (СЭ) для восстановления более точного диапазона допустимых диспаратностей, также предлагается способ использования этих диспаратностей в качестве опорных для плотной карты диспаратностей. В последнем разделе приводятся результаты применения предлагаемых методов сопоставления локальных признаков к сопоставлению аэрокосмических фотоснимков, которые показывают устойчивость методов к" сезонно-суточным и антропогенным изменениям. Демонстрируется, что разработанные методы способны сопоставлять изображения разных типов: изображения оптического диапазона с радиолокационными изображениями и изображениями ИК диапазона, карты местности со снимками местности. Получение робастных результатов связано с возможностью работы методов при наличии очень большого количества ошибок сопоставлений ключевых точек - в отдельных случаях корректное решение может быть принято по менее чем 0,1% от общего числа сопоставлений.

В заключении приведены основные результаты работы и сформулированы следующие из них выводы. Утверждается, что поставленная в диссертационной работе цель была достигнута, и при этом был получен ряд важных теоретически и практически значимых результатов.

1 АНАЛИЗ СУЩЕСТВУЮЩИХ МЕТОДОВ СТРУКТУРНОГО АНАЛИЗА

ИЗОБРАЖЕНИЙ

Объектом исследования в данной диссертационной работе являются методы автоматического СА изображений трехмерных сцен. В настоящее время алгоритмы обработки изображений принято связывать с разными уровнями описания изображений. Рассмотрение изображений на более высоких уровнях описания позволяет абстрагироваться от особенностей изображения, не несущих важную для анализа информацию. В настоящее время принято говорить о системном взаимодействии следующих иерархических уровней описания [1]:

- пиксельный уровень;

- признаковый уровень;

- уровень СЭ;

- уровень составных СЭ;

- уровень знаний;

- иерархический уровень представления.

Переход от нижних уровней представления к верхним сопровождается неизбежной потерей информации, поэтому переход от одного уровня описания изображения к другому должен происходить так, чтобы сохранять максимально большое соотношение полезной и бесполезной информации. При этом полезной информации должно быть достаточно для принятия правильного решения.

Различия в представлении изображения на пиксельном уровне, как правило, сводятся к различиям формата представления изображения, связанным с аппаратными особенностями фотокамеры. Признаковый уровень основан на признаках, содержащихся в нескольких (иногда в одном) пикселях. Признаки, выражают некоторую значимую характеристику объекта численно.

Уровень СЭ позволяет частично абстрагироваться от данных исходного изображения. СЭ могут строиться на основе контуров, или точек интереса,

которые выделяют в рамках признакового подхода. На уровне составных СЭ выявляются связи между отдельными СЭ, что позволяет получить абстракцию еще более высокого уровня. В литературе структурными методами называют методы, которые работают со структурным описанием изображений и методы, которые учитывают связи между отдельными элементами изображения. Таким образом, при использовании сочетания «структурный метод» [2-7], как правило,, имеют ввиду, что при анализе изображения в расчет принимается взаимное пространственное положение отдельных частей изображения, его СЭ, т.е. анализируются структурные связи.

На уровне знаний изображение интерпретируется в терминах естественного языка, а при использовании иерархического описания методы оперируют с описаниями разных уровней за счет использования обратных связей.

Привлечение знаний о предметной области может производиться автоматически посредством обучения, но часто в используемых на практике системах автоматического анализа изображений информацию о предметной области и предполагаемых свойствах изображения, закладывают в систему вручную. Это позволяет добиться лучших результатов для конкретных задач, но приводит к тому, что системы становятся узкоспециализированными, не* применимыми к другим задачам компьютерного зрения. Использование структурного представления позволяет существенно повысить качество работы таких алгоритмов. Так, например, в задаче обнаружения лица можно использовать простой детектор цвета кожи [8, 9], однако, существенного улучшения работы алгоритма можно добиться, если анализировать форму выделенной области искомого цвета [10] или дополнительно производить оценку положения носа и глаз в области с цветом кожи [11, 12]. Использование по-настоящему универсальных методов СА позволяет увеличить эффективность работы алгоритмов в условиях малой предсказуемости содержания изображений. В создании как можно более универсальных методов заинтересованы также разработчики вычислительной аппаратуры, поскольку, чем более широкий круг

»

задач способен решать алгоритм, тем больше серия чипа, реализующего этот

алгоритм, что в свою очередь существенно влияет на конечную стоимость разрабатываемого прибора (приборов). Все приведенные выше факторы стимулируют исследования объектно-независимых методов в области технического зрения. В последние годы исследователям удалось добиться прогресса в создании подобных методов, из-за чего при решении практических задач такие методы часто выбираются в качестве «основы», которая дополняется эвристиками характерными для области применения.

В настоящее время можно выделить два подхода к построению объектно-независимых методов анализа изображений: такие методы либо абстрагируются от особенностей анализируемых зрительных образов и для построения структурных описаний используют лишь самые общие закономерности их формирования, либо получают знания об особенностях зрительных образов автоматически посредством обучения на маркированной БД. Для построения систем устойчивых к различного рода искажениям учитывается положение отдельных элементов изображения, поэтому оба вида методов можно считать структурными.

1.1 Структурные методы, абстрагирующиеся от индивидуальных особенностей зрительных образов

Методы, абстрагирующиеся от индивидуальных особенностей зрительных образов, не требуют проведения обучения на серии эталонных снимков и поэтому могут работать с единственным эталонным изображением. Для обеспечения универсальности таких методов системы распознавания образов используют описания изображений, которые не включают никакой объектно-специфичной информации. Наиболее часто встречаются системы, работающие с контурными описаниями или с описаниями, основанными на точках интереса, на основе которых строятся структурное описание зрительного образа, которое используется для дальнейшего анализа.

г

1.1.1 Методы, основанные на контурном описании изображения

Яркость конкретных пикселей изображения очень часто в большей степени зависит от свойств внешнего освещения и позиции наблюдателя, чем от свойства самого объекта, проецируемого на светочувствительные элементы матрицы, фотопленки или сетчатки глаза. Для распознавания наблюдаемого образа информация об освещении и позиции наблюдателя является избыточной и бесполезной. Принято считать [13], что контурные изображения являются в большей степени устойчивыми к изменению освещения, а также способны абстрагироваться от других изменений наблюдаемого объекта, не связанных непосредственно с изменением его класса. Из-за этого контурные описания часто^ выделяют в отдельный уровень описания изображения.

Обоснованность применения контурного описания подтверждают современные биологические исследования, которые говорят о том, что за выделение границ на изображении в сетчатке глаза человека отвечают ганглиозные клетки, а за обнаружение направленных линий - клетки стриарной коры головного мозга. При этом задача получения контуров по изображению нетривиальна [13]. Работу ганглиозных клеток моделируют операции свертки фильтрами Собеля, Робертса, Первитт [13]. Связные контуры изображения могут быть получены методами, основанными на прослеживании связности границ с помощью динамического программирования [14] и других методов [15, 16].

Похожие диссертационные работы по специальности «Системный анализ, управление и обработка информации (по отраслям)», 05.13.01 шифр ВАК

Список литературы диссертационного исследования кандидат наук Малашин, Роман Олегович, 2014 год

ЛИТЕРАТУРА

1. Потапов А.С., Гуров И.П., Васильев В.Н. Математические методы и алгоритмическое обеспечение анализа и распознавания изображений в информационно-телекоммуникационных системах / Всероссийский конкурсный отбор обзорно-аналитических статей по приоритетному направлению "Информационно-телекоммуникационные системы", 2008. -46 с.

2. Вадим Луцив. Автоматический анализ изображений. Объектно-независимый* структурный подход. - Саарбрюккен, Германия: Ламберт Академик Паблишинг, 2011 г. - 300с.

3. Lutsiv V., Potapov A., Novikova Т., Lapina N. Hierarchical 3D structural matching in the aerospace photographs and indoor scenes // Proc. of SPIE. 2005. V. 5807. P. 455-466.

4. Lutsiv V., Malyshev I., Potapov A. Hierarchical structural matching algorithms for registration of aerospace images // Proc. of SPIE. 2003. V. 5238. P. 164-175.

5. Lutsiv V., Malyshev I., Pepelka V. Automatic fusion of the multiple sensor and multiple season images // Proc. of SPIE. 2001. V. 4380. P. 174-183.

6. Lutsiv V., Malyshev I., A. Potapov. The target independent algorithms for description and structural matching of aerospace photographs // Proc. of SPIE. 2002. V. 4741. P. 351-362.

7. Philbin J., Chum, O., Isard M., Sivic J., Zisserman A. Object retrieval with large vocabularies and fast spatial matching. IEEE Conf. on CVPR. 18-23 June, 2007. Minneapolis, USA. P. 1-8.

8. Soriano M., Martinkauppi В., Huovinen S., Laaksonen M. Using the skin locus to cope with changing illumination conditions in color-based face tracking // Proceedings of NORSIG. Kolmarden, Sweden. June 13-15, 2000. P. 383-386.

9. Albiol A., Torres L., Delp. E. Optimum color spaces for skin detection // ICIP. October 7-10,2001, v. 1. Thessaloniki, Greece. P. 122-124.

10. Кудряшов П. П. Быстрое распознавание человеческих лиц на цифровых изображениях / П. П. Кудряшов, С. А. Фоменков // Современные технологии автоматизации. - [Электронный ресурс]. - [2007]. - Режим доступа: http://www.cta.ru/online/online_progr-digital.htm (18.03. 2014).

11. Chiang С., Huang С. A robust method for detecting arbitrarily tilted human faces in color images // Pattern Recognition Letters. USA, 2005, v.26. P. 2518-2536.

12. Lee K. Component-based face detection and verification // Pattern Recognition Letters. USA, 2007, v.28. P. 2190-2200.

13. Mapp Д. Зрение. Информационный подход к изучению представления и обработки зрительных образов / Пер. с англ. М.: Радио и связь, 1987. 400 с.

14. Ballard D. Н., Sklansky J. A ladder-structureddecision tree for recognizing tumors in chest radiographs // IEEE Transactions on Computers, V. C25. 1976. USA." P. 503-513.

15. Canny J. A Computational Approach to Edge Detection // IEEE Trans, on PAMI. 1986. V. 8, №6. USA. P. 679-698.

16. Deriche R. Optimal edge detection using recursive filtering // Proc. 1st Int. Conf. Computer Vision. June 8-11, 1987. London, England. P. 501-505.

17. Belongie S., Malik J., Puzicha J. Shape Matching and Object Recognition Using Shape Context // IEEE Trans, on PAMI. 2002. V. 24, №24. P. 509-522.

18. Ling H., Jacobs W. Shape Classification Using the Inner-Distance // The IEEE Transactions on PAMI. 2007. V. 29, №2. USA. P.286-299.

19. Hough P. Machine Analysis of Bubble Chamber Pictures // Proc. Int. Conf. High Energy Accelerators and Instrumentation. September 14-19, 1959. Geneva, Switzerland. P. 554-558.

20. Matas J., Galambos C., Kittler V. Robust Detection of Lines Using the Progressive Probabilistic Hough Transform // Computer Vision and Image Understanding. USA. 2000. V. 78, №1. P. 119-137.

21. Yuen H., Princen J., Illingworth J., Kittler J. Comparative study of Hough transform methods for circle finding // Image Vision Computing. V. 8, №1. 1990. UK. P. 71-77.

22. Tsuji S., Matsumoto F. Detection of ellipses by a modified Hough transform // IEEE Transactions on Computers. V. 27. USA. 1987. P. 777-781.

23. Tsai D. An improved generalized Hough transform for the recognition of overlapping objects // Image and Vision Computing. V. 15, № 12. UK. 1997. P. 877-888.

24. Merlin M., Farber J. A parallel mechanism for detecting curves in pictures // IEEE Transactions on Computers C24. 1975. P. 96-98.

25. Ballard D. H. Generalizing the Hough transform to detect arbitrary shapes // Pattern Recognition. V.13, №2. USA. 1981. P.l 11-122.

26. Roy P., Pal U., Llados J. Seal object detection in document images using GHT of local component shapes // Proc. of the ACM Symposium on Applied Computing. March 22-26,2010. Sierre, Switzerland. P. 23-27.

27. Anelli M., Cinque L., Sangineto E. Deformation tolerant generalized Hough

*

transform for sketch-based image retrieval in complex scenes. Image and Vision Computing. V.25.2007. UK. P. 1802-1813.

28. Khoshelham K. Extending Generalized Hough Transform to detect 3D Objects in Laser Range Data // ISPRS Workshop on Laser Scanning and SivilLaser. September 12-14,2007. Espoo, Finland. P. 206-210.

29. Xu L., Oja E. Randomized Hough Transform (RHT): Basic Mechanisms, Algorithms, and Computational Complexities // Image Understanding.V.57, №2. USA, 1993. P. 131-154.

30. 29. Ping F., Wing L. Randomized generalized Hough transform for 2-D grayscale object detection // ICVPR. Vienna, Austria. August 25-30, 1996. P. 511-515.

31. Chiu S, Wen C, Lee J., Lin K., Chen H. A Fast Randomized Generalized Hough Transform for Arbitrary Shape Detection // IJICIC. V. 8, № 2. February 2012 . UK._ P. 1103-1116.

32. Ser P.K., Siu W.C. A new generalized Hough transform for the detection of irregular objects // JVCIR. V. 6, № 3. 1995. USA. P. 256-264.

33. Yip R., Tarn P., Leung D. Modification of Hough Transform for object recognition using a 2-dimensional array // Pattern Recognition. 1995. V. 28, №11. UK. P. 1733-1744.

34. Jeng S., Tsai W. Scale and orientation-invariant generalized Hough transform—a new approach // Pattern Recognition. V. 24, № 11.1991. UK. P. 1037-1051.

35. Chau C., Siu W. Generalized dual-point Hough transform for object recognition // Proc. of IEEE ICIP. October 24-28, 1999. Kobe, Japan. P.560-564.

36. Chau C., Siu W. Adaptive dual-point Hough transform for object recognition // Computer Vision and Image Understanding. 2004. V.96, №.1. UK. P. 1-16

37. Montiel E., Aguado A., Nixon M. Improving the Hough Transform gathering process for affine transformations // Pattern Recognition Letters. 2001. V. 22, № 9. USA. P. 959-969.

38. Olson C. Efficient Pose Clustering Using a Randomized Algorithm. IJCV. 1997. V. 23, № 2. Netherlands P. 131-147.

39. Ecabert O., Thiran J-P. Adaptive Hough transform for the detection of natural shapes under weak affine transformations // Pattern Recognition Letters. September 2004. V. 25, № 12. P. 1411-1419.

40. Lowe D. G. Object Recognition from Local Scale-Invariant Features // The Proceedings of the Seventh IEEE ICCV, vol. 2. September 20-27, 1999. Kerkyra , Greece. P. 1150-1157.

41. Gordon I., Lowe D. What and where: 3D object recognition with accurate pose // - Toward Category-Level Object Recognition. V. 4270. 2006. P. 67-82.

42. Brown M., Lowe D. Recognising panoramas // Proc. IEEE on ICCV. October 1316,2003. Nice, France. P. 1218-1225.

43. Brown M., Lowe D. Automatic panoramic image stitching using invariant features // IJCV. 2007. V. 74, №1. P. 59-73

44. Li Y., Wang Y., Huang W., Zhang Z. Automatic image stitching using SIFT // ICALIP. July 7-9,2008. Shanghai. P. 568-571.

45. Scovanner P., Ali S., Shah M. 2007. A 3-dimensional sift descriptor and its application to action recognition // ACM Multimedia. September 24-29, 2007. Augsburg, Germany. P. 357-360.

46. Niebles J. Wang H., Li F. Unsupervised Learning of Human Action Categories Using Spatial-Temporal Words // BMVC. V. 79, №3. September 4-7, 2006. Edinburgh, UK. P. 299-318.

47. Bicego M., Lagorio A., Grosso E., Tistarelli M. On the use of SIFT features for face authentication // CVPR workshop. June 17-22, 2006. New York, USA. P. 35-35.

48. Luo J., Ma Y., Takikawa E., Lao S., Kawade M., Lu B.-L. Person-specific SIFT^ features for face recognition // ICASSP. V. 2. April 15-20, 2007. Honolulu, USA. P. 593-596.

49. Park U., Pankanti S., Jain A. Fingerprint verification using SIFT features // SPIE Defense and Security Symposium. V. 6944, №1. March 16, 2008. Orlando, Florida. P. 69440K-1-69440K-9.

50. Shuai X., Zhang C., Hao P. Fingerprint indexing based on composite set of reduced SIFT features // ICPR. December 8-11, 2008. Tampa, Florida, USA. P. 1-4.

51. Harris C., Stephens M. A combined corner and edge detector // Proceedings of the 4th Alvey Vision Conference. 31 August - 2 September, 1988. Manchester, UK. P. 147-151.

52. Rosten E., Drummond T. Machine learning for high-speed corner detection // ECCV. V. 3951. May 7-13,2006. Graz, Austria. P. 430^143.

53. Shi J., Tomasi C. Good Features to Track // CCVPR. June 23-28, 1994. Seatle, USA. P. 593-600.

54. Matas J., Chum O., Urban M., Pajdla T. Robust wide baseline stereo from maximally stable extremal regions // BVMC. September 2-5, 2002. Cardiff, UK. P. 384-396.

55. Agrawall M., Konolige K., Bias M. R. CenSurE. Center Surround Extremas for Realtime Feature Detection and Matching // ECCV Proc. October 12-18, 2008. Marseille, France. P. 102-115.

56. Tuytelaars Т., Van Gool L. Wide Baseline Stereo based on Local, Afflnely-invariant Regions // BMVC. September 11-14, 2000. Bristol, UK. P. 412-422.

57. Hauagge D. C., Snavely N. Image matching using local symmetry features // CVPR. Providence, US. June 16-2012, 2012. P. 206-213.

58. Delponte E., Noceti N., Odone F., Verri A. Spatio-temporal constraints for matching view-based descriptions of 3D objects // WIAMIS. 6-8 June, 2007. Santorini, Greece. P. 91-116.

59. Луцив В., Лапина H., Малышев И., Потапов А. Особенности сопоставления изображений в задачах определения местоположения мобильного робота // Оптический журнал. 2010. Т. 77, №11. С. 25-34.

60. Malashin R., Peterson М., Lutsiv V. Application of structural methods for stereo depth map improvement // AIP Conference Proceedings, Vol. 1537. 2013. P. 27-33.

61. Малашин P. Использование структурных методов для построения плотных* карт глубины // Сборник трудов I конференции молодых ученых «Будущее оптики» для молодых специалистов, кандидатов наук, аспирантов и студентов оптической отрасли и смежных дисциплин из Санкт-Петербурга и Ленинградской области. 2012. Санкт-Петербург. С. 63-65.

62. Bay Н., Tuytelaars Т., Van Gool L. SURF: Speeded Up Robust Features //ECCV. May 7-13, 2006. Graz, Austria. P. 404^17.

63. Viola P., Jones M. Rapid Object Detection using a Boosted Cascade of Simple Features // CVPR. December 8-14, 2001. Kauai, HI, USA. P. I-501-I-518.

64. Calonder M., Lepetit V., Strecha C., Fua P. Brief: Binary robust independent elementary features // ECCV. September 5-11, 2010. Crete, Greece. P. 778-792.

65. Rublee E., Rabaud V., Konolige K., Bradski G. ORB: An efficient alternative to SIFT or SURF // ICCV. November 8-11,2011. Barcelona, Spain. P. 2564-2571.

66. Leutenegger S., Chli M., Siegwart R. BRISK: Binary Robust Invariant Scalable Keypoints // ICCV. November 8-11, 2011. Barcelona, Spain. P. 2548-2555.

67. Ortiz R., Vandergheynst P. FREAK: Fast Retina Keypoint // CVPR. June 16-21, 2012. Providence, RI, USA. P. 510-517.

\ t

146

68. Ke Y., Sukthankar R. PCA-SIFT: A More Distinctive Representation for Local Image Descriptors // Proc. of CVPR. June 27-July 2, 2004. Washington, DC, USA. P.506-513.

69. Ojala T., Pietikâinen M., Harwood D. Performance evaluation of texture measures" with classification based on Kullback discrimination of distributions // Proceedings of the 12th IAPR International Conference on Pattern Recognition. V. 1. October 9-13, 1994. Jerusalem, Israel. P. 582-585.

70. Ojala T., Pietikâinen M., Harwood D. A Comparative Study of Texture Measures with Classification Based on Feature Distributions // Pattern Recognition. 1996. V. 29. UK. P. 51-59.

71. Hafiane A., Seetharaman G., Zavidovique B. Median binary pattern for texture classification // Proceedings of ICIAR. August 22-24, 2007. Montreal, Canada. P. 387-398.

72. He C., Ahonen T., Pietikâinen M. A Bayesian local binary pattern texture descriptor // Proceedings of International Conference on Pattern Recognition. December 8-11,2008. Tampa, USA. P. l^t.

73. Laptev I., Lindeberg T. Local descriptors for spatio-temporal recognition // ECCV Workshop on SCVMA. 2004. V. 3667. P. 91-103.

74. Laptev I., Caputo B., Schuldt C., Lindeberg T.. Local velocity-adapted motion events for spatio-temporal recognition // Computer Vision and Image Understanding. 2007. V. 108, №3. P. 207-229.

75. Koeser K., Koch R. Perspectively invariant normal features // ICCV. 2007, October 14-20. Rio de Janeiro, Brazil. P. 1-8.

76. Wu C., Clipp B., Li X., Frahm J.-M., Pollefeys M. 3D Model Matching with Viewpoint-Invariant Patches (VIP) // Conference on CVPR. 2008, June 23-28. Anchorage, USA. P. 1-8.

77. Mikolajczyk K., Schmid C. Scale and affine invariant interest point detectors U^ IJCV. 2004. V. 60, №1 . USA. P. 63-86.

78. Аверкин А., Потапов А., Луцив В. Построение систем локальных инвариантных признаков изображений на основе преобразования Фурье-Меллина. Оптический журнал. 2010. Т. 77. № 1. С. 36-41.

79. Cover Т. М., Hart P. Е. Nearest neighbor pattern classification // IEEE Transactions on Information Theory. 1967. V. 13. P. 21-27.

80. Muja M., Lowe D. Fast approximate nearest neighbors with automatic algorithm configuration // VISAPPICCV. Lisbon, Portugal. February 5-8, 2009. P. 331-340."

81. Muja M., Lowe D. Fast Matching of Binary Features // Conference on Computer and Robot Vision. May 28-30, 2012. Toronto, Canada. P. 404-410.

82. Александров B.B., Горский Н.Д. Представление и обработка изображений. Рекурсивный подход. Л.: Наука, 1985. - 192с.

83. Луцив В.Р., Новикова Т.А., Данилов Е.П., Малышев И.А. Разработка методов и алгоритмов реализации интеллектуальных вычислительных устройств с использованием нейронных сетей в интересах задач анализа и сопоставления изображений. Отчет о работе 22201-007-94, Шифр «Нейросеть». 1994. Инв.№.22-03 от 6.02.95. Государственный Оптический Институт им. С.И. Вавилова, С.-Петербург. 75 с.

84. Lutsiv V.R., Dolinov D.S., Zherebko А.К., Novikova T.A. Using artificial neural^ networks in image processing problems // Journal of optical technology. 1997. V. 64, №2, P. 112-118.

85. Lutsiv V.R., Andreev V.S., Gubkin A.F., Iljashenko A.S., Kadykov A.B., Lapina N.N., Malyshev I.A., Novikova T.A., Potapov A.S. Algorithms for automatically processing and analyzing aerospace pictures // Journal of optical technology. 2007. V. 74, № 5. P. 307-322.

86. Луцив В.P. Объектно-независимый подход к структурному анализу изображений // Оптический журнал. 2008. Т. 75, №11. С. 26-34.

87. Lutsiv V., Malyshev I. Image structural analysis in the tasks of automatic navigation of unmanned vehicles and inspection of Earth surface // SPIE Proc. 2013. V. 8897 "Electro-Optical Remote Sensing VII". P. 88970F-1-88970F-1.

88. Patent KR20110009547 (A) (Korea). Apparatus and method for detecting rotationinvariant features for localization of a mobile robot / Lutsiv V., Potapov A., Redkov V., at al.; LG Electronics Inc. - Appl. No. KR20090066995 2009.07.22; Prior. No. KR20090066995 2009.07.22; Publ. 2011.01.28 by UK Intellectual Property Office; Classif.-intern.: A47L9/28; B25J13/08; G05D1/02.

89. Луцив В., Малышев И. Автоматический анализ и сопоставление изображений в задачах навигации беспилотных аппаратов и мониторинга земной поверхности // Труды Юбилейной Всероссийской Научно-Технической Конференции «Моделирование Авиационных Систем». Москва. 12-14 апреля* 2011 г. С. 197-206.

90. Hartley R., Zisserman A. Multiple View Geometry in computer vision . - New York: Cambridge University Press, 2003. - 648 P.

91. Longuet-Higgins H. A Computer Algorithm for Reconstructing a Scene From Two Projections // Nature. V. 293. 1981. P. 133-135.

92. Hartley R. In Defense of the Eight-Point Algorithm // IEEE Transaction on PAMI, V. 6. June 17-19,1997. San Juan, Puerto Rico P. 580-593.

93. Torr P. Murray D. Outlier Detection and Motion Segmentation // Sensor fusion VI, Vol. 2059. Boston, USA. 1993. P. 432-443.

94. Chum O., Matas J., Kittler J. Locally optimized ransac // Proceedings of the DAGM. September 10-12,2003. Magdeburg, Germany. P. 236-243.

95. Fischler M. A., Bolles R. C. Random Sample Consensus: A Paradigm for Model Fitting with Applications to Image Analysis and Automated Cartography // Communications of the ACM. V. 24, №6. June 1981. P. 381-395.

96. Raguram R., Frahm J. M., Pollefeys, M. A comparative analysis of RANSAC techniques leading to adaptive real-time random sample consensus // Proceedings of ECCV. October 12-18,2008. Marseille, France. P. 500-513.

97. Todoroff B. Murray D. Guided sampling and consensus for motion extimation // ECCV Proc., V.l. 27 May-2 July, 2002. Copenhagen, Denmark. P. 82-96.

98. Chum O., Werner Т., Matas J. Two-view geometry estimation unaffected by a dominant plane // CVPR. June 20-26,2005. San Diego, USA. P. 772-780.

99. Chum О., Matas J., Obdrzalek S. Enhancing RANSAC by generalized model optimization //ACCV Proc., V.2. January 27-30, 2004. Jeju, Korea. P. 812-817.

100.Pedroch M., Matas J., Chum O. Epipolar Geometry from Two Correspondences // ICPR, V. 4. August 20-24, 2006. Hong Kong, China. P. 215-219.

101.Chum O., Matas J. Randomized ransac with T(d,d) test // BMVC, vol.2. September 2-5,2002. Cardiff, UK. P.448-^57.

102.Myatt D., Torr P., Nasuto S., Bishop J., Craddock R. Napsac: High noise, high dimensional robust estimation - it's in the bag // BVMC, V. 2. September 2-5, 2002. Cardiff, UK. P. 458-467.

103. Stewart C. MINPRAN: A new robust operator for computer vision // IEEE Transactions on PAMI. 1995. V 17, № 10. P. 925-938.

104. Torr P., Zisserman A. MLESAC: A new robust estimator with application to estimating image geometry // Computer Vision and Image Understanding. 2000. V 78. P. 138-156.

105. Малашин P. Методы сопоставления изображений трёхмерных сцен // Сборник трудов II конференции молодых ученых «Будущее оптики» для молодых специалистов, кандидатов наук, аспирантов и студентов оптической отрасли и смежных дисциплин. 2013. Санкт-Петербург. С. 62-45.

106. Lowe D. Distinctive image features from scale-invariant keypoints // IJCV. 2004. V. 60. №2. P. 91-110.

107. Lowe D. Local feature view clustering for 3D object recognition // IEEE Conf. on CVPR. USA, Kauai, Hawaii. December 8-14,2001. P. 682-688.

108. Loui A., Das M. Matching of complex scenes based on constrained clustering //

4

AAAI Fall Symposium: Multimedia Information Extraction. V. FS-08-05. November 7-9, 2008. Arlington, USA. P. 28-30.

109. M. Peterson. Clustering of a set of identified points on images of dynamic scenes, based on the principle of minimum description length // Journal of Optical Technology. 2010. V. 77. № 11. P. 701-706.

110. Potapov A., Malyshev I., Puysha A., Averkin N. New paradigm of learnable computer vision algorithms based on the representational MDL principle // Proc. SPIE. 2010. V. 7696. P. 769606.

111. Schaffalitzky F., Zisserman A. Automated Scene Matching in Movies. CIVR. July 18-19, 2002. London, UK. P. 68-81.

112. Pritchett P., Zisserman A. Wide baseline stereo matching // ICCV. January 4-7, 1998. Bombay, India. P. 754-760.

113. Schaffalitzky F., Zisserman A. Multi-view matching for unordered image sets, or «How do I organize my holiday snaps?» // ECCV, V. 2350. May 27-June 2, 2002. Copenhagen, Denmark. P. 414-431.

114. Sirmacek В., Unsalan C. Urban Area and Building Detection Using SIFT Keypoints and Graph Theory // TGRS. 2009. V. 47, №4. P. 1156-1167.

115. Morimitsu H., Pimentel R., Hashimoto M., Cesar R., Hirata R.. Wi-Fi and key graphs for localization with cell phones // ICCV. November 6-13, 2011. Barcelona, Spain. P. 92-99.

116. Morimitsu H., Hashimoto M., Pimentel R., Cesar R., Hirata R. Key graphs for Sign Detection in Indoor Environments by Mobile Phones // Graph-Based Representations in Pattern Recognition International Workshop. May 18-20, 2011. Münster, Germany P. 315-324.

117. Малашин P., Луцив В., Кадыков А., Деготинский H. Ускоренная индексация изображений на основе их содержания // Альманах научных работ молодых ученых XLIII научной и учебно-методической конференции Университета ИТМО. 2014. С. 264-266.

118. The PASCAL Visual Object Classes [official websize]. URL: http://pascallin.ecs.soton.ac.uk/challenges/VOC/ (accessed: 17.03.2014).

119. ImageNet Large Scale Visual Recognition Challenge 2012 [official website]. URL:. http://www.image-net.org/challenges/LSVRC/2012/ (accessed: 04.01.2014).

120. Deng J., Dong W., Socher R., Li L.-J., Li K., Fei-Fei L. ImageNet: A Large-Scale Hierarchical Image Database // Proceedings of Conference on Computer Vision and Pattern Recognition. June 20-25,2009. Miami, USA. P. 248-255.

121. Cortes C., Vapnik V. Support-vector networks. Machine Learning. 1995. V.20. № 3. P. 273-279.

122. Krizhevsky A., Sutskever I., Hinton G. ImageNet Classification with Deep Convolutional Neural Networks // Advances in Neural Information Processing. 2012. V. 25. P. 1097-1105.

123. Csurka G., Dance C., Fan L., Willamowski J., Bray C. Visual categorization with bags of keypoints // ECCV Workshop on Statistical Learning for Computer Vision. 2004. V.l. №22. P. 1-2.

124. Perronnin F., Dance C., Csurka G., Bressan M. Adapted vocabularies for generic visual categorization // ECCV, vol. 4. May 7-13,2006. Graz, Austria. P. 464-475.

125. Jurie F., Triggs B. Creating efficient codebooks for visual recognition // ICCV, vol. 1. October 17-20, 2005. Beijing, China. P. 604-610.

126. Arandjelovic R., Zisserman A. Smooth Object Retrieval using a Bag of Boundaries // ICCV. November 6-13, 2011. Barcelona, Spain. P.375-382.

127. Zhang E., Mayo M. Improving Bag-of-Words Model with Spatial Information // Int. Conference of Image and Vision Computing. November 8-9, 2010. Queunstown, New Zealand. P. 1-8.

128. Özdemir B., Aksoy S. Image Classification Using Subgraph Histogram Representation. ICPR. August 23-26, 2010. Istanbul, Turkey. P. 1112-1115.

129. Farhangi M., Soryany M., Fathy M. Improvement the Bag of Words Image Represenatation using Spatial Information // Advances in Intelligent Systems and Computing. 2013. V. 177. P. 681-690.

130. Dalai N., Triggs B. Histogram of oriented gradients for human detection // Proceedings Computer Society Conference on Computer Vision and Pattern Recognition. V. 1. June 20-26, 2005. San Diego, USA. P. 886-893

131.Lienhart R., Maydt J. An Extended Set of Haar-like Features for Rapid Object Detection // International Conference on Image Processing, vol. 1. 2002, September 22-25. New York, USA. P. 900-903.

132. Freund Y. and Schapire R. E. A Short Introduction to Boosting // Journal of Japanese Society for Artificial Intelligence. 1999. V. 14, №5. Japan. P. 771-780.

133. Freund Y. and Robert E. Schapire. A decision-theoretic generalization of on-line learning and an application to boosting / In Computational Learning Theory: Eurocolt '95. Springer-Verlag. 1995. P. 23-37.

134. Viola P., Jones M. J. Robust Real-Time Face Detection // IJCV. V. 2, №57. Netherlands, 2004. P. 137-154.

135. Малашин. P. Псевдо-ЗО монитор на мобильном устройстве // Сборник докладов научной сессии ГУАП. июнь, 2011. Санкт-Петербург. С. 76-78.

136. Малашин Р., Рожков А. Технология трехмерного представления зрительной, информации на плоском экране с помощью видеокамеры // Материалы Шестой Всероссийской научно-практической конференции «Перспективные системы и задачи управления» и третьей молодежной школы-семинара «Управление и обработка информации в технических системах». Таганрог. 2011. С. 447-451.

137. Zhu Q. Fast Human Detection Using a Cascade of Histograms of Oriented Gradients // Computer Society Conference on Computer Vision and Pattern Recognition. June 17-22,2006. New York, USA. P. 1491-1498.

138. Liao S., Zhu X., Lei Z., Zhang L., Li S. Learning Multi-scale Block Local Binary Patterns for Face Recognition // International Conference on Biometrics. 2007 August. Seoul, Korea. P. 828-837

139. Felzenszwalb P., McAllester D., Ramaman D. A Discriminatively Trained,* Multiscale, Deformable Part Model // Proceedings of the IEEE CVPR. 2008, June 24-26. Anchorage, USA. P. 1-8.

140. Felzenszwalb P., Girshick R., McAllester D. Cascade Object Detection with Deformable Part Models // Proceedings of the IEEE CVPR. June 13-18, 2010. San Francisco, USA. P. 2241-2248.

141. Felzenszwalb P., Girshick R., McAllester D., Ramanan D. Visual Object Detection with Deformable Part Models // Communications of the ACM. September 2013. V.59, № 9. New York, USA. P. 97-105.

II

I

142. Felzenszwalb P., Girshick R., McAllester D., Ramanan D. Object Detection with Discriminatively Trained Part-Based Models // IEEE Transactions on Pattern Analysis and Machine Intelligence. 2010. V. 32, №9. P. 1627-1645.

143. Felzenszwalb P., McAllester D. Object Detection Grammars. Technical Report. University of Chicago, Computer Science TR-2010-02. February, 2010.

144. Girshick R., Felzenszwalb P., McAllester D. Object Detection with Grammar Models // Proceedings of NIPS. December 12,2011, Granada, Spain. 9 p.

145. Wang X., Yang M., Zhu S., Lin Y. Regionlets for Generic Object Detection, ICCV. December 1-8,2013. Sydney, Australia. P. 17-24.

146. Hess R. An open-source SIFTLibrary // ACM Multimedia. October 25-29, 2010. Firenze, Italy. P. 1493-1496.

147. OpenCV(open source computer vision) [official website]. URL: http://opencv.org/ (accessed: 03.02. 2014).

148. Малашин P.O. Сопоставление изображений трехмерных сцен с помощью кластеризации сопоставленных локальных признаков посредством преобразования Хафа // Оптический журнал. 2014. Т. 81, №6. С. 34-42.

149. Brown М., Lowe D. Unsupervised 3D object recognition and reconstruction in unordered datasets // International conf. on 3DIM. June 13-16, 2005. Ottawa, Canada. P. 56-63.

150. Brown M., Lowe D. Invariant Features from Interest Point Groups // BMVC. September 2-5,2002. Cardiff, UK. P. 656 - 665.

151. Davis J. Goadrich M. The relationship between precision-recall and ROC curves // ICML. June 25-29. Pittsburgh, USA. P. 233-240.

152. Bosch A., Zisserman A., Munoz X. Scene classification via pLSA // ECCV. May 7-13,2006. Graz, Austria. P. 517-530.

153. A. Vedaldi and B. Fulkerson. Vlfeat: An open and portable library of computer vision algorithms // ACM Multimedia. October 25-29, 2010.Firenze, Italy. P. 1469-1472.

154. Perronnin F., Dance C. Fisher Kernels on Visual Vocabularies for Image Categorization // Conf. on CVPR. June 12-22 , 2007. Minneapolis, USA. P. 1-8.

/

155.Csurka G., Perronnin F. Beyond bag-of-visual-words image representations // CCIS. V 229. P. 28-42

156. Perronnin F., Sanchez J., Mensink T. Improving the Fisher Kernel for Large-Scale Image Classification // ECCV. September 5-11,2010. Crete, Greece. P. 143-156.

157. P. Moreno and R. Rifkin. Using the Fisher kernel method for web audio classification // ICASSP, vol. 4. June 5-9,2000. Istanbul, Turkey. P. 2417-2420.

158. ERSP 3.1. Robotic Development Platform [Электронный ресурс]. Режим доступа: http://www.mobile-vision-technologies.eu/archiv/download/MVT_ersp.pdf (дата обращения 10.03.2014).

159. Fei-Fei L.A Bayesian hierarchical model for learning natural scene categories // Conference on CVPR, vol.2. June 20-25,2005.San Diego, USA. P. 524-521.

160. Leskovec J., Rajaraman A., Ullman J. Mining of Massive Datasets. - UK: Cambridge University Press, 2011. - 493 p.

161. Boykov Y., Kolmogorov V. An Experimental Comparison of Min-Cut/Max-Flow* Algorithms for Energy Minimization in Vision // Proceedings of EMMCVP. September 3-5, 2001. Sophie Antipolis, France. P. 359-374.

162. Heiko Hirschmüller. Accurate and Efficient Stereo Processing by Semi-Global Matching and Mutual Information // Proceedings of CVPR, vol. 2. 2005 June 2025. San Diego, USA. P. 807-814.

163. Sun J., Zheng N., Shum H. Stereo matching using belief propagation // Trans, on PAMI. 2007. V. 25, № 7. P. 787-800.

164. Sherman D. and Peleg S. Stereo by Incremental Matching of Contours // Trans, on PAMI. 1990. V.2, №11. P. 1102-1106.

165. Medioni G. and Nevatia R. Segment-Based Stereo Matching // Computer Vision, Graphics and Image Processing. 1985. V. 32. P. 2-18.

166. Hong L., Chen G. Segment-based stereo matching using graph cuts // CVPR. V. 1. 2004. P. 74-81.

167. Barrois В., Konrad M., Wöhler С., Groß H.-M. Resolving stereo matching errors due to repetitive structures using model information // Pattern Recognition Letters. 2010. V. 31, №12. P. 1683-1692.

168. Dente E,, Bharath A., Ng J., Vrij A., Mann S., Bull A. Tracking hand and finger movements for behavior analysis // Pattern Recognition Letters. 2006. V. 27. P.1797-1808.

169. Л. Шапиро, Дж. Стокмаи. Компьютерное зрение. - М.: Бином. Лаборатория знаний. 2006. - 752 с.

170. Малашин Р. О., Луцив В. Р. Восстановление силуэта руки в задаче распознавания жестов с помощью адаптивной морфологической фильтрации бинарного изображения // Оптический журнал. 2013. Т.80, №11. С. 57-63

171.Alrajeh К., Alzohairy Т. Developing an Algorithm to Proccess Matching of Complex Aerial Images // IJVIPNS. 2013. V. 13, №1. P. 1-6.

172. Casetti A., Frontoni E., Mancini A., and others. A visual global positioning system for unmanned aerial vehicles used in photogrammetric applications // Journal on Intelligent Robot Systems. 2011. V. 61. P. 157-168.

Обратите внимание, представленные выше научные тексты размещены для ознакомления и получены посредством распознавания оригинальных текстов диссертаций (OCR). В связи с чем, в них могут содержаться ошибки, связанные с несовершенством алгоритмов распознавания. В PDF файлах диссертаций и авторефератов, которые мы доставляем, подобных ошибок нет.