Модели и алгоритмы калибровки радиальной дисторсии камеры по особенностям Хаф-спектра изображений при неконтролируемой съемке тема диссертации и автореферата по ВАК РФ 05.13.17, кандидат наук Кунина Ирина Андреевна

  • Кунина Ирина Андреевна
  • кандидат науккандидат наук
  • 2020, ФГАОУ ВО «Московский физико-технический институт (национальный исследовательский университет)»
  • Специальность ВАК РФ05.13.17
  • Количество страниц 118
Кунина Ирина Андреевна. Модели и алгоритмы калибровки радиальной дисторсии камеры по особенностям Хаф-спектра изображений при неконтролируемой съемке: дис. кандидат наук: 05.13.17 - Теоретические основы информатики. ФГАОУ ВО «Московский физико-технический институт (национальный исследовательский университет)». 2020. 118 с.

Оглавление диссертации кандидат наук Кунина Ирина Андреевна

Введение

Глава 1. Дисторсия объектива. Причины возникновения и

методы ее устранения на изображениях

1.1 Идеальное формирование изображений: Камера-обскура

1.2 Реальное формирование изображений

1.2.1 Общие положения о вычислении аберраций оптической системы

1.2.2 Аберрации третьего порядка

1.2.3 Дисторсия

1.2.4 Модели дисторсии и ее компенсации

1.2.5 Связь фокусного расстояния и наблюдаемой на изображении дисторсии

1.3 Алгоритмы калибровки радиальной дисторсии

1.3.1 Калибровка с использованием специального калибровочного объекта

1.3.2 Автокалибровка

1.3.2.1 Автокалибровка по нескольким изображениям сцены

1.3.2.2 Автокалибровка по единичному изображению сцены

1.3.3 Нормировка параметров дисторсии в случае неизвестного фокусного расстояния

1.4 Выводы по главе 1. Основные задачи диссертации

Глава 2. Анализ модели дисторсии Брауна. Исследование влияния дисторсии на прямые линии и их вклад в

оценку параметров дисторсии

2.1 Ограниченность модели Брауна с малым числом коэффициентов

2.2 Зависимость кривизны линии от ее положения на изображении

Стр.

2.3 Быстрое преобразование Хафа - инструмент для оценки прямолинейности на изображении

2.3.1 Интегральный способ оценки кривизны линий и параметров дисторсии

2.3.2 Учет погрешностей при оценке величины дисторсии в случае известного направления интегрирования

2.3.3 Учет погрешностей при оценке величины дисторсии в случае неизвестного направления интегрирования

2.3.4 Дискретное преобразование Радона

2.3.5 Быстрое преобразование Хафа

2.3.6 Растяжение проекций на Хаф-образе

2.4 Выводы по главе

Глава 3. Алгоритм автокалибровки фото- и видеоизображений

3.1 Исправление дисторсии при известных фиксированных параметрах

3.2 Сравнение результатов исправления дисторсии с разными наборами параметров

3.2.1 Оценка прямолинейности границ на изображении

3.2.2 Исправление дисторсии с сохранением интеграла интенсивности

3.2.3 Вычисление обратного преобразования координат при радиальной дисторсии

3.2.4 Проверка обратного преобразования координат на монотонность

3.2.5 Угловой дескриптор изображения

3.2.6 Оценка восстановленности единичного изображения по угловому дескриптору

3.3 Общее описание алгоритма калибровки радиальной дисторсии

на единичном изображении из неизвестного источника

3.4 Оценка восстановленности видеоизображения по угловому дескриптору

3.5 Выводы по главе

Стр.

Глава 4. Экспериментальное исследование разработанных

алгоритмов

4.1 Оценка качества работы предложенного алгоритма

4.2 Описание используемых наборов данных для тестирования алгоритма

4.3 Тестирование предложенного алгоритма

4.3.1 Обсуждение экспериментальных результатов

4.3.2 Аналитический подбор коэффициента преломления

4.4 Выводы по главе

Заключение

Список литературы

Приложение А. Акты о внедрении результатов диссертации

Рекомендованный список диссертаций по специальности «Теоретические основы информатики», 05.13.17 шифр ВАК

Введение диссертации (часть автореферата) на тему «Модели и алгоритмы калибровки радиальной дисторсии камеры по особенностям Хаф-спектра изображений при неконтролируемой съемке»

Введение

В настоящее время камеры с широкоугольными объективами становятся все более доступными обычному пользователю. Такие объективы позволяют увеличить поле зрения фотографируемой местности при фиксированном положении камеры. Получаемые с таких камер фото- и видеоизображения подвержены ряду оптических аберраций.

Дорогие высококачественные камеры обычно оснащены достаточно сложной системой линз, которая компенсирует все значительные аберрации. Большой вклад в область проектирования оптимальных оптических систем и предварительный аберрационный расчет внесли зарубежные и отечественные ученые P.L. von Seidel, K. Schwarzschild, Г.Г. Слюсарев, Д.С. Волосов и многие другие.

Однако нередки случаи, когда компенсацию оптических аберраций должен осуществить сам пользователь на этапе постобработки полученных изображений. Это может быть связано с удешевлением оптической системы за счет исключения дорогостоящего процесса калибровки камеры или намеренным желанием пользователя получить необработанные данные.

Одной из таких аберраций является радиальная дисторсия, которая нарушает геометрическое подобие между объектом в сцене и его образом на снимке. Достаточно точное исправление радиальной дисторсии имеет важное значение для многих задач оптического распознавания, прежде всего потому, что дистор-сия искажает прямые линии, а на детекции прямолинейных отрезков построены многие алгоритмы выделения и анализа объектов на видеоизображении. В частности поэтому очень важным является исследование того, как искажаются прямые в зависимости от параметров дисторсии и положения в кадре.

При наличии доступа к камере получить параметры искажения, а затем и изображение со скомпенсированной дисторсией, можно с помощью специального калибровочного программного обеспечения, алгоритмическая база которого была заложена Z. Zhang и развивается до сих пор. На вход таким программам подается одно или несколько изображений специального калибровочного объекта, снятого на калибруемую камеру, и параметры объекта. Выходом алгоритма являются параметры в полиномиальной модели дисторсии Брауна (предложенная D.C. Brown и A.E. Conrady). Однако такая калибровка излишне трудоемка

и не всегда возможна. Существует большое число баз изображений, используемых для обучения или тестирования систем компьютерного зрения, в которых изображения не подвергаются никакой предварительной обработке, а информация о параметрах дисторсии отсутствует.

Алгоритмы, заложенные в такие системы, обычно анализируют получаемые на вход изображения в предположении, что проецирование сцены на изображение описывалось моделью камеры-обскуры. В этом случае перед разработчиком ставится задача калибровки камеры в условиях неизвестных параметров сцены и камеры. В литературе такие методы получили название автокалибровки или самокалибровки.

На сегодняшний день вопросам автокалибровки в литературе уделяется достаточно большое внимание. Среди работ, внесших значительный вклад в развитие данной области, стоит отметь те, которые основаны на предположении, что дугообразные линии на изображении были преимущественно прямыми до своего проецирования на плоскость изображения.

Здесь можно выделить два основных подхода. Примерами первого подхода являются работы A. Wang, X. Zhang и F. Bukhari. Здесь дуги приближаются кривыми второго порядка с известными параметрами, а параметры дисторсии вычисляются из системы уравнений, где в правой части - параметры кривых, в левой - функция от параметров дисторсии и параметров прямой. Примерами второго подхода являются работы С.М. Карпенко, Y. Kanuki, M. Aleman-Flores и D. Santana-Cedres. В них перебираются всевозможные параметры на некоторой сетке, а выбор наилучших параметров осуществляется путем анализа того или иного функционала над исходным изображением в пространстве параметров. Однако практическое применение имеющихся методов имеет существенные ограничения: отсутствуют указания на возможности и ограничения таких систем и используемых в них моделей дисторсии, равно как и на точность их работы в зависимости от входных данных.

Очередная волна интереса к задаче поднялась с оснащением смартфонов нового поколения широкоугольными объективами: например, камера в iPhone 11 имеет угол обзора 120°, в Samsung Galaxy S10 - 123°. В такие смартфоны, как правило, встроена функция компенсации дисторсии на получаемых снимках, однако результат ее работы далеко не всегда удовлетворителен для дальнейшей обработки. Кроме этого, в настоящее время производители смартфонов активно переходят на новый стандарт IP68 (ГОСТ 14254-2015) с повышенными

требованиями к устойчивости работы под водой, что приводит к росту популярности подводной съемки. Даже если камера изначально была калибрована, на подводных снимках будет наблюдаться существенная дисторсия из-за преломления света на границе двух сред - водной и воздушной, согласно закону Снеллиуса. При этом калибровка камеры под водой, - это достаточно трудоемкий процесс даже для специалистов.

Таким образом, дальнейшее исследование методов автокалибровки является актуальным.

Целью диссертационной работы является анализ формы линий на изображении, подверженном радиальной дисторсии, и разработка методов автоматической калибровки дисторсии по фото- и видеоизображениям из неизвестного источника, учитывающих ограниченность моделей дисторсии и особенности геометрического преобразования прямых линий.

Для достижения поставленной цели в диссертации ставятся и решаются следующие задачи:

1. Провести анализ поведения известных моделей радиальной дисторсии (одно- и двухпараметрической) в плоскости изображения с целью выявить возможные ограничения данных моделей.

2. Исследовать геометрическое преобразование прямых под действием радиальной дисторсии с целью выявить общие закономерности такого преобразования.

3. Исследовать влияние точности детектирования линии на изображении на точность и устойчивость оценки параметров радиальной дисторсии.

4. Разработать алгоритм автоматической калибровки радиальной дистор-сии на единичном изображении из неизвестного источника.

5. Разработать алгоритм автоматической калибровки радиальной дистор-сии на видеофрагменте из неизвестного источника.

6. Разработать способ численной оценки качества работы предложенных алгоритмов.

7. Реализовать разработанные в диссертации алгоритмы для обеспечения их внедрения в промышленные системы распознавания и провести их экспериментальный анализ.

Методы исследования. В диссертации используются методы цифровой обработки и анализа изображений, численные методы, методы математической статистики и интегральной геометрии.

Научная новизна. В диссертации впервые:

1. Установлены границы допустимых значений параметров дисторсии в двухпараметрической модели Брауна, за пределами которых модель дисторсии перестает адекватно моделировать оптическую систему;

2. Показана зависимость точности оценки параметров радиальной дистор-сии от точности локализации прямой на изображении;

3. Разработаны алгоритмы автоматической калибровки фото- и видеоизображений из неизвестного источника, учитывающий ограниченность модели Брауна и свойства искажения прямых линий на изображении.

Практическая ценность и реализация результатов.

Практическая ценность заключается в разработанном методе калибровки радиальной дисторсии, который может быть использован в задачах анализа изображений, полученных неизвестной оптической системой. Также предложенный метод может быть использован для устранения радиальных искажений на изображениях, полученных объективом с переменным фокусным расстоянием без обратной связи или при подводной съемке в условиях неизвестного показателя преломления воды.

Результаты работы внедрены и используются на практике, что подтверждено соответствующими актами. Разработанные алгоритмы внедрены в программно-аппаратный комплекс автоматического распознавания транспортных средств «АКТС-4», разработанный компанией ООО «Визиллект Сервис», и в программный продукт «ShaH», разработанный ООО «Визионика» для датчиков волнового фронта, работающих по методу Шака-Гартмана. Отдельные полученные результаты диссертационной работы использованы при выполнении НИОКР по созданию новых алгоритмов улучшения подводных фотографий (дог. №YBN2018115183), выполненного в ИППИ РАН.

Основные положения, выносимые на защиту:

1. Определены границы обратимости дисторсии, задаваемой моделью Брауна, а именно: в однопараметрической модели - к\ > 0 или г2 в противном случае; в двухпараметрической модели - к\,к2 > 0, или

7 9 7 2 2 3ki + j9k\-20k2 7 7

к2 > 20«2, или г2 ^-—Î0k2-в противном случае; здесь к\, к2 - пара-

метры модели Брауна, а г - расстояние от точки неискаженного образа до центра изображения;

2. Модель ошибки определения параметра к\ однопараметрической модели Брауна по координатам прямой, найденным с погрешностью, позволяющая строить взвешенные оценки дисторсии по координатам нескольких прямых;

3. Алгоритм автоматической калибровки радиальной дисторсии, не требующий наличия калибровочных объектов в кадре и гарантирующий существование калибровочного преобразования;

4. Метод уточнения параметров калибровки радиальной дисторсии по видеофрагменту путем усреднения распределения покадровых оценок в пространстве параметров модели Брауна.

Достоверность полученных результатов обеспечивается согласованностью заявленных параметров разработанных моделей и алгоритмов с воспроизводимыми экспериментальными результатами, успешной апробацией разработанных алгоритмов и внедрением в коммерческие системы распознавания.

Основные результаты диссертации были получены в процессе выполнения работ по следующим научным грантам:

— РНФ №14-50-00150 «Цифровые технологии и их применения», направление «Фундаментальные проблемы разработки интеллектуальных автономных систем»;

— РФФИ № 18-29-26035 «Методы позиционирования и ориентирования изучаемого объекта путем анализа локальных геометрических особенностей отдельных проекций»;

— РФФИ №17-29-03161 «Каскадные алгоритмы локализации и прослеживания протяженных объектов на мобильных устройствах»;

— РФФИ №17-29-03236 «Методы интеллектуальной обработки, классификации и использования изображений на мобильных устройствах для защиты от угроз»;

— РФФИ № 18-07-01387 «Модели и методы построения систем оптического распознавания видеопотока с использованием обратных связей, функционирующим в условиях ограниченных вычислительных ресурсов».

Апробация работы. Основные результаты работы докладывались и обсуждались на международных конференциях 2016 International Conference

on Robotics and Machine Vision (ICRMV 2016, Москва, Россия) и The 4th International Professor's Day on ICT Algorithm Design (2017, Москва, Россия). Также результаты работы были доложены на междисциплинарной школе-конференции ИТиС 2019 «Информационные технологии и системы» (ИТиС) и научном семинаре Лаборатории зрительных систем ИППИ РАН.

Личный вклад. Все основные результаты, изложенные в диссертации, принадлежат лично автору. Постановка задач и обсуждение результатов проводилось совместно с научным руководителем.

Публикации. Основные результаты по теме диссертации изложены в 5 публикациях, в том числе: 1 издана в журнале и 1 в сборнике трудов конференций, входящих в международные базы цитирования Scopus и Web of Science, 2 - в журналах, входящих в базу RSCI, 1 - в тезисах докладов.

Объем и структура работы. Диссертация состоит из введения, четырех глав и заключения. Полный объём диссертации составляет 118 страниц, включая 39 рисунков и 5 таблиц. Список литературы содержит 99 наименований.

Глава 1. Дисторсия объектива. Причины возникновения и методы

ее устранения на изображениях

1.1 Идеальное формирование изображений: Камера-обскура

В настоящее время во многих отраслях экономики все большее распространение получают интеллектуальные системы обработки изображений и видеопотоков. Некоторыми примерами практического приложения таких систем являются: автоматизация измерений [1] и технический контроль [2]; зрение роботов [3]; видеонаблюдение [4]; обработка и распознавание документов [5; 6], поиск визуальной информации [7; 8]; биометрия [9]; авиационные и космические приложения [10; 11].

Методы компьютерного зрения, заложенные в такие системы, обычно разрабатываются в предположении, что проецирование трехмерного пространства на плоскость изображения описывается моделью «камера-обскура».

Формирующим элементом камеры-обскуры выступает бесконечно малое отверстие О, именуемое центром проекции (см. рисунок 1.1). Плоскости ХУ, YZ, ZX, пересекаясь под прямым углом в точке О, образуют систему координат с началом координат в этой точке. Такая система называется системой координат камеры и описывает положение объекта в сцене.

Отдельный световой луч, идущий от точки объекта трехмерной сцены с координатами Р = ), проходит через центр проекции и проецируется, не

преломляясь, в точку р = (х,у) на плоскость изображения. Плоскость изображения находится на расстоянии / от центра проекции О, которое называется фокусным расстоянием.

У

Плоскость Фокальная Плоскость

объекта плоскость изображения

Рисунок 1.1 — Формирование изображения с помощью модели «камера-обскура»: точка объекта Р в сцене проецируется в точку р на изображении через центр проекции О

Зависимость между координатами в 3_0-пространстве и на 2_0-изображении в такой модели задается соотношением:

х =

У =

IX

г

1Х_ г

(1.1)

или, после замены координат,

(1.2)

т.к. знак «—» подразумевает только отражение изображения относительно начала отсчета системы координат.

Координаты изображения (1.2), поделенные на расстояние /, являются безразмерными и равны тангенсу угла относительно оптической оси, при которой наблюдается объект (см. рисунок 1.2):

х =

=

IX

г

IX! г

г = / tg ф

tg ф =

У2

X2 + £2

г2 = х2 + у2

(1.3)

Рисунок 1.2 — Формирование изображения с помощью модели «камера-обскура»: наблюдаемая под углом ф точка объекта Р с радиус-вектором Я проецируется в точку р с радиус-вектором г на изображении через центр проекции О

Перепишем уравнение (1.2) в матричном виде:

и V = — ,У =

и 'X 7 о о" "X"

V = Ао У = о / о У

П) г 001 г

И]

И]

(1.4)

и обобщим матрицу А0:

А =

/х У х{) о /у Уо 0 0 1

/х /у 8у

(1.5)

Здесь в А ,вх и ву - масштабирующие коэффициенты, зависящие от размера пикселя изображения, (х0, у0) - центр проекции, у - коэффициент перекоса

между осями X, У изображения, который в современных камерах обычно равен нулю или пренебрежимо мал.

Полученная матрица А называется «внутренними параметрами» камеры и описывает преобразование координат камеры в координаты изображения.

Другим способом описать положение объекта в 3 ^-пространстве является система координат, которая относится к наблюдаемой сцене. Такие координаты называются мировыми. Совмещение мировых координат и координат камеры требует таких элементарных геометрических преобразований, как сдвиг и поворот: сначала начало отсчета мировой системы координат смещается в начало отсчета системы координат камеры с помощью вектора перемещения Т, затем изменяется ориентация сдвинутой системы поворотами относительно соответствующих осей, с тем чтобы она совпала с системой координат камеры. Математически перемещение можно описать векторным вычитанием, а поворот - умножением координатного вектора на матрицу:

Р = Я(Р'-Т), (1.6)

где Р' - положение точки объекта, заданное в мировых координатах.

Вектор переноса Т и матрица поворота Я называются «внешними параметрами» камеры.

Важной особенностью модели «камера-обскура» является то, что прямая линия в пространстве сцены в такой модели проецируется на плоскость изображения как прямая линия.

Однако такая модель служит лишь приближенной моделью реального физического процесса.

1.2 Реальное формирование изображений

Одиночный световой луч может достичь плоскости изображения только при идеальной точечной проекции. У реальных отверстий имеется определенный размер, вследствие чего каждая точка на плоскости изображения освещается конусом световых лучей. Увеличение отверстия приводит к расфокусировки изображения, уменьшение отверстия приводит к уменьшению света,

которое падает на плоскость изображения. Поэтому в реальной камере формирующим элементом выступает линза (или система линз). Линза аккумулирует падающий свет и контролирует степень размытости изображения.

Оптические системы, представляющие практический интерес, обладают аберрациями - отступлениями от камеры-обскуры.

1.2.1 Общие положения о вычислении аберраций оптической

системы

Качество изображения объекта пучками монохроматических лучей зависит от совершенства коррекции монохроматических аберраций. Возникновение этих аберраций объясняется тем, что преломляющие поверхности (линзы) не собирают в точку сколько-нибудь широкие гомоцентрические пучки лучей, падающие на них под большими углами [12].

Изображение объекта в белом свете может оказаться окрашенным, что будет зависеть от хроматических аберраций оптической системы. Их возникновение объясняется дисперсией оптических сред, из которых образована оптическая система.

Ко многим оптическим системам, работающим в условиях переменной температуры окружающей среды, предъявляют требования исправления термооптических аберраций. Температурные колебания вызывают изменения оптических постоянных стекол (показателей преломления и дисперсий), изменения геометрических параметров оптических и механических деталей (кривизны преломляющих поверхностей, толщин линз и т.п.).

Аберрации оптической системы принципиально неустранимы, т.е. всякая реальная оптическая система всегда имеет остаточные аберрации.

На рисунке 1.3 изображена центрированная оптическая система, где ХОУ и X'О'У' - плоскости предмета и изображения, ХОУ и Х'О'У' - плоскости входного и выходного зрачков. Предположим, что известны расстояние от первой поверхности до предметной плоскости ХОУ и расстояние вр от первой поверхности до входного зрачка. Предметная точка Р удалена от оптической оси на расстояние у\. Выберем произвольный луч РС, который в общем случае не лежит в меридиональной плоскости (т.е. плоскости, к которой принадлежит

оптическая ось системы). Если известны координаты ух, вх, вр, то положение такого внемеридионального (косого) луча в пространстве определяется заданием координат точки С = (т, М) пересечения этого луча с плоскостью входного зрачка ХОУ [13].

Если бы система была идеальной, то любой луч, вышедший из точки Р, прошел бы через точку Р0. В реальной системе в общем случае этого не происходит, и луч РС, пересекающий входной зрачок в точке С, пройдя через оптическую систему и плоскость выходного зрачка в точке С с координатами т и М', пересекает предметную плоскость в некоторой точке Рл, а не в точке Р0 .

Таким образом, поперечная аберрация рассматриваемого луча характеризуется отрезком Р0Р<1. В практике расчета оптических систем эту аберрацию представляют с помощью ее проекции на оси координат: меридиональной составляющей поперечной аберрации Ьу и сагиттальной Ьх. Тогда координаты точки Р^ определяются как (хл, уа)=(х + Ьх, у + Ьу).

Выполнив расчеты нескольких лучей, выходящих из предметной точки Р и проходящих через различные точки входного зрачка, находят поперечные аберрации Ьх и Ьу каждого луча, которые и характеризуют пятно рассеяния данной точки.

у У у' У

Рисунок 1.3 — Аберрация косого луча в модели оптической системы

1.2.2 Аберрации третьего порядка

Меридиональная и сагиттальная составляющие поперечной аберрации могут быть найдены и приближенно с помощью математического описания аберраций.

Составляющие поперечной аберрации Ьх и Ьу являются функциями координат луча у\, т, М, также они зависят от конструктивных параметров системы, положения предметной плоскости и плоскости входного зрачка. Теория аберраций устанавливает связь между между составляющими аберраций Ьх, Ьу и координатами падающего луча у\,т,М:

Вследствие симметрии системы относительно оптической оси функции (1.7) не содержат члены четных порядков. Поэтому, если их разложить в ряд, они будут содержать только члены нечетных порядков относительно координат у\,т, М:

Наличие в формулах (1.8) аберраций первого порядка соответствовало бы рассмотрению аберраций Ь х, Ь в произвольной плоскости, не совпадающей с плоскостью идеального изображения.

Теория аберраций третьего порядка определяет приближенные значения составляющих аберраций Ь х и Ь , представленных в виде ряда, члены которого содержат коэффициенты А, В, С, О, Е, зависящие только от конструктивных параметров системы и от положения плоскостей предмета и входного зрачка, но не зависящие от координат луча. Эти координаты у\, т, М входят в виде множителей ряда со степенями у*, тв, Му, сумма которых а + в + У = 3. Число коэффициентов третьего порядка равно пяти:

Ьх = /(у\,т,М) Ьу = ^ (У1,т,М)

(1.7)

Ьу = Ь уш + Ь уу + Ь ууП + ... Ьх = Ьхщ + Ьху + Ьхуц + ...

(1.8)

Ьуш = Ат(т2 + М2) + В?л(3т2 + М2) + Су{ т + Еу3 Ьх1п = АМ (т2 + М2) + 2Ву гтМ + Оу ¡М

(1.9)

где коэффициенты А, В, С, И, Е зависят только от положения плоскостей предмета и входного зрачка и конструктивных параметров оптической системы. Указанные параметры выражают не через конструктивные параметры системы, а через параметры двух вспомогательных параксиальных лучей (см. рис. 1.4).

Первый вспомогательный параксиальный (нулевой) луч I проходит через осевую точку А предметной плоскости под произвольным углом ах и пересекает главную плоскость первой поверхности на высоте к\. Второй вспомогательный параксиальный луч проходит через центр входного зрачка под произвольным углом в и пересекает главную плоскость первой поверхности на высоте Щ.

Выразив коэффициенты А,... ,Е через параметры вспомогательных лучей, получим следующие формулы для составляющих поперечной аберрации третьего порядка:

Ь _ т(т2 + М2) 8 + У\(3т2 + М2) ^ 111 2п'ч(з 1 - 8р)3а1а.'ч 1 2п'д(зг - зР)3а2а'двх 11

2 3

У 2т /ОС , т2о ч , Ш

2п> ( 5! - 5р)3аав2 (3 ^11 + 1 ^) + 2П(* 1 - ^)ЧвзБу

^ _ М (т2 + М2) д + 2угтМ ^ ,

2п'д(в 1 - вР)3а3ая 2п'д(в 1 - вР)3^2вх

2 т

'(3 бш + 12бту)

(1.10)

2п'ч(з 1 - 8Р)3ахав2

где п% - показатель преломления для ¿-ой преломляющей поверхности, а% - угол между оптической осью системы и нулевым (первым вспомогательным параксиальным) лучом до преломления луча через г-ую поверхности, а% - после преломления, в% и в' - межу оптической осью и вторым вспомогательным параксиальным лучом, I = -ща1(з 1 - %)в1.

Символами Б1, Бц, Бш, , Бу обозначены суммы Зейделя, определяемые через параметры вспомогательных лучей. Каждым таким символом определяется одна из пяти аберраций третьего порядка: Б1 — сферическая аберрация; Бц — кома; Бш — астигматизм; Б1У — кривизна поля (поверхности) изображения; Бу — дисторсия.

•4- Л ► ^V --ь ( а'4

Рисунок 1.4 — Ход вспомогательных параксиальных лучей в оптической системе: I - первого вспомогательного (нулевого) и II - второго

вспомогательного.

В целях упрощения анализа предполагают, что в формулах только один из коэффициентов не равен нулю, который и определяет соответствующую аберрацию.

1.2.3 Дисторсия

Дисторсия оптической системы проявляется в том, что нарушается кол-линеарное соответствие объекта и изображения. Эта аберрация не зависит от координат луча на входном зрачке, и все лучи, выходящие из данной предметной точки, после прохождения системы линз дают гомоцентрический пучок лучей, собирающийся в плоскости изображения в точке, не совпадающей с ее идеальным изображением. При дисторсии не нарушается резкость изображения, но искажается его форма. Значение дисторсии для данной точки поля определяется разностью между ординатой у'я главного луча и ординатой у'0 , соответствующей идеальному изображению:

ЬУ = Уд - У'од. (1.11)

Коэффициент линейного увеличения при этом можно определить следующим образом:

в = ^. (1.12)

Из формул (1.11) и (1.12) следует, что если |в| возрастает при удалении предметной точки от оптической оси, то увеличивается дисторсия системы Ь . В этом случае дисторсия называется положительной (подушкообразной). Если |в| уменьшается, то уменьшается и дисторсия системы Ьу. Такая дисторсия называется отрицательной (бочкообразной).

Рисунок 1.5 — Виды дисторсии: исходный объект; изображение при положительной и отрицательной дисторсии

В реальной системе дисторсия отдельно никогда не встречается, наблюдается комбинация всех аберраций третьего порядка, и, кроме того, на них налагаются аберрации высших порядков, а также ошибки конструирования системы. Кроме этого, необходимо знать ряд конструктивных параметров системы и параметров хода лучей, чтобы определить остаточную аберрацию по формуле (1.10). Поэтому в реально используемых моделях дисторсии не вычисляют коэффициент при 3 из физических соображений, а вычисляют его эмпирически.

1.2.4 Модели дисторсии и ее компенсации

Одной из наиболее распространенных на настоящий день моделей дисторсии является модель Брауна-Конради [14; 15] Предложенная модель учитывает радиальные искажения, вызванные сферической формой линзы, и тангенциальные искажения, вызванные погрешностями в установке линзы параллельно плоскости изображения.

где

п т

(1 + ^ кгг2г) + [р1(г2 + 2х2) + 2хур2\(1 + Р^2*)

г=1 у=3

п т '

уа = у(1 + ^ кгг2г) + [Р2(г2 + 2у2) + 2хуР1 ](1 + ^ргг2г)

1=1 з=3

Г =\] X2 + у2

(1.13)

гу* - гу> _ гу>

гЛ/ --С )

У = у и - Ус

- параметры радиальной дисторсии, р^ - параметры тангенциальной дисторсии, (хи, уи) - идеальное положение точки, (х0, у0) - оптический центр изображения, (ха, у в) - положение точки в результате действия радиальной дисторсии.

Похожие диссертационные работы по специальности «Теоретические основы информатики», 05.13.17 шифр ВАК

Список литературы диссертационного исследования кандидат наук Кунина Ирина Андреевна, 2020 год

Список литературы

1. Vision-based industrial Automatic Vehicle Classifier [текст] / T. Khanipov [и др.] // ICMV 2014. т. 9445 / под ред. A. V. B. V. P. R. J. Zhou. — SPIE, 02.2015. — с. 1—5. — DOI: 10.1117/12.2181557.

2. Методы распознавания и обработки изображений в процессе строительства нефтяных и газовых скважин [текст] / С. А. Усилин [и др.] // ИТиВС / под ред. П. Ю. Соломонович. — Адрес: 119333, г. Москва, ул. Вавилова, д.44, кор.2, 2020. — DOI: 10.14357/20718632200102.

3. Edge detection based mobile robot indoor localization system [текст] / O. S. Shipitko [и др.] // ICMV 2018. т. 11041. — SPIE, 03.2019. — DOI: 10.1117/12.2522788.

4. Котов, А. А. Прослеживание объектов в видеопотоке, оптимизированное с помощью быстрого преобразования Хафа [текст] / А. А. Котов, И. А. Ко-новаленко, Д. П. Николаев // ИТиВС / под ред. П. Ю. Соломонович. — Адрес: 119333, г. Москва, ул. Вавилова, д.44, кор.2, 2015. — № 1. — с. 56—68.

5. Smart IDReader: Document Recognition in Video Stream [текст] / K. B. Bulatov [и др.] // ICDAR 2017. — IEEE Computer Society, 2017. — с. 39—44. — DOI: 10.1109/ICDAR.2017.347.

6. О локализации плоских объектов на изображениях со сложной структурой проективных искажений [текст] / Д. В. Тропин [и др.] // Информационные процессы / под ред. академик РАН Кузнецов Николай Александрович. — 127994, Москва, ГСП-4, пер. Большой Каретный, д.19, стр. 1, 2019. — т. 19, № 2. — с. 208—229.

7. Usilin, S. A. Fast approach for QR code localization on images using ViolaJones method [текст] / S. A. Usilin, P. V. Bezmaternykh, V. V. Arlazarov // ICMV 2019. т. 11433 / под ред. J. Z. Wolfgang Osten Dmitry Nikolaev. — SPIE, 01.2020. — с. 1—9. — DOI: 10.1117/12.2559386.

8. Matalov, D. P. Viola-Jones based approach for stamp detection given insufficient training set [текст] / D. P. Matalov, S. A. Usilin, V. V. Arlazarov // IEEE ICIP 2020. — IEEE, 2020.

9. Robust real-time object detection [текст] / P. Viola, M. Jones [и др.] // International journal of computer vision. — 2001. — т. 4, № 34—47. — с. 4.

10. Sidorchuk, D. Perception-Oriented Fusion of Multi-Sensor Imagery: Visible, IR and SAR [текст] / D. Sidorchuk, V. Volkov, S. Gladilin // Tenth International Conference on Machine Vision (ICMV 2017). т. 10696. — International Society for Optics, Photonics. 2018. — с. 106961I.

11. UAV control on the basis of 3D landmark bearing-only observations [текст] / S. Karpenko [и др.] // Sensors. — 2015. — т. 15, № 12. — с. 29802—29820.

12. Волосов, Д. Фотографическая оптика [текст] / Д. Волосов // М.: Искусство. — 1971.

13. Заказное, Н. Теория оптических систем [текст] / Н. Заказнов, С. Кирюшин, В. Кузичев. — Машиностроение М., 1992.

14. Conrady, A. E. Decentred lens-systems [текст] / A. E. Conrady // Monthly notices of the royal astronomical society. — 1919. — т. 79, № 5. — с. 384—390.

15. Brown, D. C. Decentering distortion of lenses [текст] / D. C. Brown // Photogrammetric Engineering and Remote Sensing. — 1966.

16. Fitzgibbon, A. W. Simultaneous linear estimation of multiple view geometry and lens distortion [текст] / A. W. Fitzgibbon // Proceedings of the 2001 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. CVPR 2001. т. 1. — IEEE. 2001. — с. I—I.

17. Zhang, Z. A flexible new technique for camera calibration [текст] / Z. Zhang // IEEE Transactions on pattern analysis and machine intelligence. — 2000. — т. 22, № 11. — с. 1330—1334.

18. Calibration of camera intrinsic parameters using a single image [текст] / K. Yan [и др.] // Proceedings of the 2017 International Conference on Robotics and Artificial Intelligence. — 2017. — с. 39—45.

19. Research of improved Zhang's calibration method [текст] / W. Yu [и др.] // 2017 Chinese Automation Congress (CAC). — IEEE. 2017. — с. 1423—1427.

20. A robust detection method of control points for calibration and measurement with defocused images [текст] / W. Ding [и др.] // IEEE Transactions on Instrumentation and Measurement. — 2017. — т. 66, № 10. — с. 2725—2735.

21. Zhao, Y. Method of camera calibration using concentric circles and lines through their centres [текст] / Y. Zhao, X. Wang, F. Yang // Advances in Multimedia. — 2018. — т. 2018.

22. Миронова, Т. В. Анализ деформаций, оптических неоднородностей и дис-торсионных искажений с помощью искусственных спеклов в цифровой фотографии [текст] : дис. . . . канд. / Миронова Татьяна Вячеславовна. — Москва, 12.2012.

23. Wang, X. Real-time multi-target localization from unmanned aerial vehicles [текст] / X. Wang, J. Liu, Q. Zhou // Sensors. — 2017. — т. 17, № 1. — с. 33.

24. Automatic distortion correction of endoscopic images captured with wide-angle zoom lens [текст] / T.-Y. Lee [и др.] // IEEE Transactions on Biomedical Engineering. — 2013. — т. 60, № 9. — с. 2603—2613.

25. Shortis, M. Calibration techniques for accurate measurements by underwater camera systems [текст] / M. Shortis // Sensors. — 2015. — т. 15, № 12. — с. 30810—30826.

26. Quan, X. Empirical equation for the index of refraction of seawater [текст] / X. Quan, E. S. Fry // Applied optics. — 1995. — т. 34, № 18. — с. 3477—3480.

27. Zhang, Z. On the epipolar geometry between two images with lens distortion [текст] / Z. Zhang // Proceedings of 13th International Conference on Pattern Recognition. т. 1. — IEEE. 1996. — с. 407—411.

28. Luong, Q.-T. Matrice fondamentale et calibration visuelle sur l'environnement. Vers une plus grande autonomie des systeme robotiques. [текст] : дис. ... канд. / Luong Quang-Tuan. — 1992.

29. Nelder, J. A. A simplex method for function minimization [текст] / J. A. Nelder, R. Mead // The computer journal. — 1965. — т. 7, № 4. — с. 308—313.

30. Liu, X. Correcting large lens radial distortion using epipolar constraint [текст] / X. Liu, S. Fang // Applied optics. — 2014. — т. 53, № 31. — с. 7355—7361.

31. Lehtola, V. Radial distortion from epipolar constraint for rectilinear cameras [текст] / V. Lehtola, M. Kurkela, P. Ronnholm // Journal of Imaging. — 2017. — т. 3, № 1. — с. 8.

32. A Simple and Efficient Method for Radial Distortion Estimation by Relative Orientation [текст] / Y. Duan [и др.] // IEEE Transactions on Geoscience and Remote Sensing. — 2017. — т. 55, № 12. — с. 6840—6848.

33. Martyushev, E. Self-calibration of cameras with Euclidean image plane in case of two views and known relative rotation angle [текст] / E. Martyushev // Proceedings of the European Conference on Computer Vision (ECCV). — 2018. — с. 415—429.

34. Zhang, Z. Camera calibration with lens distortion from low-rank textures [текст] / Z. Zhang, Y. Matsushita, Y. Ma // Computer Vision and Pattern Recognition (CVPR), 2011 IEEE Conference on. — IEEE. 2011. — с. 2321—2328.

35. Spitschan, B. Estimation of radial distortion using local spectra of planar textures [текст] / B. Spitschan, J. Ostermann // 2017 Fifteenth IAPR International Conference on Machine Vision Applications (MVA). — IEEE. 2017. — с. 472—477.

36. Wang, A. A simple method of radial distortion correction with centre of distortion estimation [текст] / A. Wang, T. Qiu, L. Shao // Journal of Mathematical Imaging and Vision. — 2009. — т. 35, № 3. — с. 165—172.

37. Wu, F. Correction of image radial distortion based on division model [текст] / F. Wu, H. Wei, X. Wang // Optical Engineering. — 2017. — т. 56, № 1. — с. 013108—013108.

38. Robust Line-Based Radial Distortion Estimation From a Single Image [текст] / L. Zhang [и др.] // IEEE Access. — 2019. — т. 7. — с. 180373—180382.

39. Bukhari, F. Robust radial distortion from a single image [текст] / F. Bukhari, M. N. Dailey // International Symposium on Visual Computing. — Springer. 2010. — с. 11—20.

40. Bukhari, F. Automatic radial distortion estimation from a single image [текст] / F. Bukhari, M. N. Dailey // Journal of mathematical imaging and vision. — 2013. — т. 45, № 1. — с. 31—45.

41. Zhang, X. DMS2015short-21: Robust radial distortion estimation using good circular arcs [текст] / X. Zhang, W. Liu, W. Xing // Journal of Visual Languages & Computing. — 2015. — т. 31. — с. 237—245.

42. Benligiray, B. Blind rectification of radial distortion by line straightness [текст] / B. Benligiray, C. Topal // 2016 24th European Signal Processing Conference (EUSIPCO). — IEEE. 2016. — с. 938—942.

43. Feasible Self-Calibration of Larger Field-of-View (FOV) Camera Sensors for the Advanced Driver-Assistance System (ADAS) [текст] / V. Kakani [и др.] // Sensors. — 2019. — т. 19, № 15. — с. 3369.

44. Grammatikopoulos, L. An automatic approach for camera calibration from vanishing points [текст] / L. Grammatikopoulos, G. Karras, E. Petsa // ISPRS journal of photogrammetry and remote sensing. — 2007. — т. 62, № 1. — с. 64—76.

45. He, B. Camera calibration with lens distortion and from vanishing points [текст] / B. He, Y. Li // Optical Engineering. — 2009. — т. 48, № 1. — с. 013603—013603.

46. Wildenauer, H. Closed form solution for radial distortion estimation from a single vanishing point. [текст] / H. Wildenauer, B. Micusik // BMVC. — 2013.

47. Rosten, E. Camera distortion self-calibration using the plumb-line constraint and minimal Hough entropy [текст] / E. Rosten, R. Loveland // Machine Vision and Applications. — 2011. — т. 22, № 1. — с. 77—85.

48. Карпенко, С. М. Метод восстановления изображений, подверженных радиальной дисторсии [текст] / С. М. Карпенко, С. А. Гладилин, Д. П. Николаев // Сборник трудов конференции Информационные технологии и системы (ИТиС'08). — 2008. — с. 502—505.

49. Kanuki, Y. Automatic compensation of radial distortion by minimizing entropy of histogram of oriented gradients [текст] / Y. Kanuki, N. Ohta, A. Nagai // Pattern Recognition (ACPR), 2013 2nd IAPR Asian Conference on. — IEEE. 2013. — с. 912—916.

50. Kanuki, Y. Speeding up and performance evaluation of a fully automatic radial distortion compensation algorithm for driving assistance cameras [текст] / Y. Kanuki, N. Ohta // IEICE TRANSACTIONS on Information and Systems. — 2015. — т. 98, № 10. — с. 1892—1895.

51. Radial lens distortion correction using cascaded one-parameter division model [текст] / X. Mei [и др.] // 2015 IEEE International Conference on Image Processing (ICIP). — IEEE. 2015. — с. 3615—3619.

52. Simultaneously vanishing point detection and radial lens distortion correction from single wide-angle images [текст] / S. Yang [и др.] // Robotics and Biomimetics (ROBIO), 2016 IEEE International Conference on. — IEEE. 2016. — с. 363—368.

53. An iterative optimization algorithm for lens distortion correction using two-parameter models [текст] / D. Santana-Cedres [и др.] // Image Processing On Line. — 2016. — т. 6. — с. 326—364.

54. Automatic Lens Distortion Correction Using One-Parameter Division Models [текст] / M. Alemán-Flores [и др.] // Image Processing On Line. — 2014. — т. 4. — с. 327—343.

55. Radial lens distortion correction using convolutional neural networks trained with synthesized images [текст] / J. Rong [и др.] // Asian Conference on Computer Vision. — Springer. 2016. — с. 35—49.

56. DeepCalib: a deep learning approach for automatic intrinsic calibration of wide field-of-view cameras [текст] / O. Bogdan [и др.] // Proceedings of the 15th ACM SIGGRAPH European Conference on Visual Media Production. — ACM. 2018. — с. 6.

57. Lutz, S. Deep Convolutional Neural Networks for Estimating Lens Distortion Parameters [текст] / S. Lutz, M. Davey, A. Smolic. — 2019.

58. Chollet, F. Xception: Deep learning with depthwise separable convolutions [текст] / F. Chollet // Proceedings of the IEEE conference on computer vision and pattern recognition. — 2017. — с. 1251—1258.

59. Deep Single Image Camera Calibration With Radial Distortion [текст] / M. Lopez [и др.] // Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. — 2019. — с. 11817—11825.

60. Blind Geometric Distortion Correction on Images Through Deep Learning [текст] / X. Li [и др.] // Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. — 2019. — с. 4855—4864.

61. Fisheyerecnet: A multi-context collaborative deep network for fisheye image rectification [текст] / X. Yin [и др.] // Proceedings of the European Conference on Computer Vision (ECCV). — 2018. — с. 469—484.

62. Learning to calibrate straight lines for fisheye image rectification [текст] / Z. Xue [и др.] // arXiv preprint arXiv:1904.09856. — 2019.

63. Härtung, J. Statistical meta-analysis with applications [текст]. т. 738 / J. Hartung, G. Knapp, B. K. Sinha. — John Wiley & Sons, 2011.

64. Szeliski, R. Computer vision: algorithms and applications [текст] / R. Szeliski. — Springer Science & Business Media, 2010.

65. RADON, J. U"ber die bestimmung von funktionen durch ihre integralwerte la"ngs gewisser mannigfaltigkeiten [текст] / J. RADON // Ber. Verh. Saechs. Akad. Wiss. Leipzig Math. Phys. Kl. — 1917. — т. 69. — с. 262.

66. Hough, P. V. Method and means for recognizing complex patterns [текст] / P. V. Hough. — 12 18.1962. — US Patent 3,069,654.

67. Duda, R. O. Use of the Hough transformation to detect lines and curves in pictures [текст] / R. O. Duda, P. E. Hart // Communications of the ACM. — 1972. — т. 15, № 1. — с. 11—15.

68. Mukhopadhyay, P. A survey of Hough Transform [текст] / P. Mukhopadhyay, B. B. Chaudhuri // Pattern Recognition. — 2015. — т. 48, № 3. — с. 993—1010.

69. Matas, J. Robust detection of lines using the progressive probabilistic hough transform [текст] / J. Matas, C. Galambos, J. Kittler // Computer vision and image understanding. — 2000. — т. 78, № 1. — с. 119—137.

70. Xu, L. A new curve detection method: randomized Hough transform (RHT) [текст] / L. Xu, E. Oja, P. Kultanen // Pattern recognition letters. — 1990. — т. 11, № 5. — с. 331—338.

71. Brady, M. L. A fast discrete approximation algorithm for the Radon transform [текст] / M. L. Brady // SIAM Journal on Computing. — 1998. — т. 27, № 1. — с. 107—119.

72. Егор, Е. Быстрое преобразование Хафа как инструмент анализа двумерных и трехмерных изображений в задачах поиска прямых и линейной кластеризации [текст] : дис. ... канд. / Егор Ершов. — 12.2018.

73. Bezmaternykh, P. Textual blocks rectification method based on fast Hough transform analysis in identity documents recognition [текст] / P. Bezmaternykh, D. Nikolaev, V. Arlazarov // Tenth International Conference on Machine Vision (ICMV 2017). т. 10696. — International Society for Optics, Photonics. 2018. — с. 1069606.

74. Fast roadway detection using car cabin video camera [текст] / D. Krokhina [и др.] // ICMV 2015. т. 9875 / под ред. A. V. P. R. D. Nikolaev. — SPIE, 12.2015. — с. 1—5. — DOI: 10.1117/12.2229617.

75. HoughNet: neural network architecture for vanishing points detection [текст] / A. Sheshkus [и др.] // ICDAR 2019. — IEEE, 02.2020. — с. 844—849. — DOI: 10.1109/ICDAR.2019.00140.

76. A method of detecting end-to-end curves of limited curvature [текст] /

E. I. Panfilova [и др.] // ICMV 2019. т. 11433 / под ред. J. Z. Wolfgang Osten Dmitry SPIE, 01.2020. — с. 1—10. — DOI: 10.1117/12.2559871.

77. Mobile and embedded fast high resolution image stitching for long length rectangular monochromatic objects with periodic structure [текст] / E. Limonova [и др.] // ICMV 2017. т. 10696 / под ред. J. Z. Antanas Verikas; Petia Radeva; Dmitry Nikolaev. — SPIE, 04.2018. — с. 1—8. — DOI: 10.1117/12.2310093.

78. Fast 3D Hough Transform computation [текст] / E. I. Ershov [и др.] // ECMS 2016. — European Council for Modelling, Simulation, 2016. — с. 227—230.

79. Ершов, Е. И. Обобщение быстрого преобразования Хафа для трехмерных изображений [текст] / Е. И. Ершов, А. П. Терехин, Д. П. Николаев // Информационные процессы / под ред. академик РАН Кузнецов Николай Александрович. — 127994, Москва, ГСП-4, пер. Большой Каретный, д.19, стр. 1, 2017. — т. 17, № 4. — с. 294—308.

80. Bulatov, K. B. Fast x-ray sum calculation algorithm for computed tomography [текст] / K. B. Bulatov, M. V. Chukalina, D. P. Nikolaev // Vestnik YuUrGU MMP. — 454080, Челябинск, Ленина просп., д. 76, ауд. 825, 2020. — т. 13, № 1. — с. 95—106. — DOI: 10.14529/mmp200107.

81. Ершов, Е. Исследование свойств диадического паттерна быстрого преобразования Хафа [текст] / Е. Ершов, С. Карпенко // arXiv preprint arXiv:1712.05615. — 2017.

82. Khanipov, T. M. Computational complexity lower bounds of certain discrete Radon transform approximations [текст] / T. M. Khanipov // arXiv preprint arXiv:1801.01054. — 2018.

83. Aliev, M. On the use of FHT, its modification for practical applications and the structure of Hough image [текст] / M. Aliev, E. I. Ershov, D. P. Nikolaev // ICMV 2018. т. 11041. — SPIE, март.2019. — DOI: 10.1117/12.2522803.

84. Deans, S. R. Hough transform from the Radon transform [текст] / S. R. Deans // IEEE transactions on pattern analysis and machine intelligence. — 1981. — № 2. — с. 185—188.

85. Ginkel, M. van. A short introduction to the Radon and Hough transforms and how they relate to each other [текст] / M. van Ginkel, C. L. Hendriks, L. J. van Vliet // Delft University of Technology. — 2004.

86. Bezmaternykh, P. V. A document skew detection method using fast Hough transform [текст] / P. V. Bezmaternykh, D. P. Nikolaev // ICMV 2019. т. 11433 / под ред. J. Z. Wolfgang Osten Dmitry Nikolaev. — SPIE, янв.2020. — с. 1—6. — DOI: 10.1117/12.2559069.

87. Lindeberg, T. Scale-space [текст] / T. Lindeberg // Wiley Encyclopedia of Computer Science and Engineering. — 2007. — с. 2495—2504.

88. Canny, J. A computational approach to edge detection [текст] / J. Canny // IEEE Transactions on pattern analysis and machine intelligence. — 1986. — № 6. — с. 679—698.

89. Mousavi, S. M. H. Analysis of a robust edge detection system in different color spaces using color and depth images [текст] / S. M. H. Mousavi, V. Lyashenko, S. Prasath // Computer Optics. — 2019. — т. 43, № 4.

90. SAR image edge detection via directional Bhattacharyya coefficient with its application on image segmentation [текст] / S. Fan [и др.] // Eleventh International Conference on Machine Vision (ICMV 2018). т. 11041. — International Society for Optics, Photonics. 2019. — с. 1104107.

91. Kunina, I. A. Blind radial distortion compensation in a single image using fast Hough transform [текст] / I. A. Kunina, S. A. Gladilin, D. P. Nikolaev // Computer optics / под ред. A. V. Soifer(Samara). — 443001, г. Самара, ул. Молодогвардейская, 151, ком. 403, 2016. — т. 40, Special issue 3. — с. 395—403. — DOI: 10.18287/2412-6179-2016-40-3-395-403.

92. Blind radial distortion compensation from video using fast Hough transform [текст] / I. A. Kunina [и др.] // ICRMV 2016. т. 10253 / под ред. J. Z. Alexander V. Bernstein Adrian Olaru. — SPIE, фев.2017. — с. 1—7. — DOI: 10.1117/12.2254867.

93. Панфилова, Е. И. Использование оконного преобразования Хафа для поиска протяженных границ на изображении [текст] / Е. И. Панфилова, И. А. Кунина // ИТиС 2019. — 2020. — с. 359.

94. Панфилова, E. И. Использование оконного преобразования Хафа для поиска протяженных границ на изображении [текст] / E. И. Панфилова, И. А. Кунина // Сенсорные системы. — 2020. — т. 34, № 4. — с. 340—353. — DOI: 10.31857/S0235009220030075.

95. Konovalenko, I. A. Error values analysis for inaccurate projective transformation of a quadrangle [текст] / I. A. Konovalenko, J. A. Shemiakina // JPCS. — 2018. — т. 1096, № 1. — DOI: 10.1088/1742-6596/1096/1/012038.

96. Коноваленко, И. А. Оптимальная аффинная аппроксимация проективного преобразования изображений [текст] / И. А. Коноваленко, В. В. Кохан, Д. П. Николаев // Сенсорные системы / под ред. д. Михаил Аркадьевич. Островский академик РАН. — 117485, Москва, Профсоюзная улица, дом 90, 2019. — т. 33, № 1. — с. 7—14. — DOI: 10.1134/S0235009219010062.

97. Sedlazeck, A. Calibration of Housing Parameters for Underwater StereoCamera Rigs. [текст] / A. Sedlazeck, R. Koch // BMVC. — Citeseer. 2011. — с. 1—11.

98. Konovalenko, I. A. Analysis and Compensation of Geometric Distortions, Appearing when Observing Objects under Water [текст] / I. A. Konovalenko, D. S. Sidorchuk, I. M. Zenkin // Pattern Recognition and Image Analysis / под ред. Z. Y. I. — 119333 Россия, Москва, ул. Вавилова 40, 2018. — т. 28, № 3. — с. 379—392. — DOI: 10.1134/S1054661818030112.

99. Коррекция радиальной дисторсии при погружении камеры под воду [текст] / Д. Д. Сеньшина [и др.] // Сенсорные системы. — 2020. — т. 34, № 3. — с. 262—272. — DOI: 10.31857/S0235009220030087.

Приложение А Акты о внедрении результатов диссертации

Обратите внимание, представленные выше научные тексты размещены для ознакомления и получены посредством распознавания оригинальных текстов диссертаций (OCR). В связи с чем, в них могут содержаться ошибки, связанные с несовершенством алгоритмов распознавания. В PDF файлах диссертаций и авторефератов, которые мы доставляем, подобных ошибок нет.