Методы визуализации многоканальных изображений, согласованные с механизмами восприятия цветовых контрастов у человека тема диссертации и автореферата по ВАК РФ 00.00.00, кандидат наук Сидорчук Дмитрий Сергеевич
- Специальность ВАК РФ00.00.00
- Количество страниц 136
Оглавление диссертации кандидат наук Сидорчук Дмитрий Сергеевич
Введение
Глава 1. Визуализация многоканального изображения. Задачи
диссертационного исследования
1.1 Цветовое зрение человека
1.2 Многоканальные изображения в техническом зрении
1.3 Постановки задачи визуализации многоканальных изображений
1.4 Методы полутоновой визуализации
1.5 Модель многоканального локального контраста
1.6 Контраст-сохраняющая визуализация
1.7 Полноцветная контраст-сохраняющая визуализация
1.8 Контраст-сохраняющая дальтонизация
1.9 Заключение к главе
Глава 2. Оценка качества методов визуализации
многоканальных изображений
2.1 Оценка качества визуализации с помощью пороговой классификации контраста
2.2 Модификация показателя Escore для учета контраста смежных пикселей
2.3 Сравнение методов ВМИ в части сохранения контраста
смежных пикселей
2.4 Модификация показателя Escore для учета локального
контраста надпиксельного контраста
2.4.1 Процедура настройки размеров окон
2.4.2 Применение процедуры настройки размера окна
2.5 Сравнение показателей качества методов ВМИ
2.6 Сравнение методов контраст-сохраняющей ВМИ с линейным и нелинейным критериями
2.7 Заключение к главе
Стр.
Глава 3. Оценивание шума мультиспектрального изображения
3.1 Модель зашумленного канала многоканального изображения
3.2 Метод оценки шумности канала как статистического свойства гауссова поля
3.3 Методы контраст-сохраняющей визуализации зашумленных многоканальных изображений
3.4 Экспериментальное сравнение методов оценки шумности
3.4.1 Сравнение методов МАЕ и ССГС на синтетических данных
3.4.2 Количественное сравнение методов МАЕ и ССГС на реальных данных
3.4.3 Качественное сравнение методов МАЕ и ССГС на реальных данных
3.5 Заключение к главе
Глава 4. Метод контраст-сохраняющей ВМИ,
визуализирующий трехканальное изображение для
дихроматов
4.1 Симуляция цветовосприятия дихромата
4.2 Ахроматическая контраст-сохраняющая дальтонизация
4.3 Оценка сохранения натуральности
4.4 Эксперименты
4.4.1 Набор данных
4.4.2 Качественная и объективная оценка дальтонизации
4.4.3 Субъективная оценка дальтонизации
4.5 Заключение к главе
Глава 5. Программный комплекс разработки и оценки
качества методов ВМИ
5.1 Назначение и функциональные возможности
5.2 Структура программного комплекса
5.2.1 Программа ВМИ
5.2.2 Программа объективной оценки ВМИ
5.2.3 Программа субъективной оценки ВМИ
Стр.
5.2.4 Программа настройки параметров объективной оценки
ВМИ
5.2.5 Программа сравнения методов объективной оценки ВМИ . 109 5.3 Заключение к главе
Заключение
Список рисунков
Список таблиц
Приложение А. Акты о внедрении результатов
диссертационного исследования
Рекомендованный список диссертаций по специальности «Другие cпециальности», 00.00.00 шифр ВАК
Методы анализа и обработки изображений видимого оптического диапазона в системах поддержки врачебных решений2023 год, кандидат наук Поздеев Александр Анатольевич
Модели дефектов матрицы фотоэмиссионных дисплеев и методы их камуфлирования2022 год, кандидат наук Басова Ольга Андреевна
Методология оценки качества воспроизведения цветных изображений оптико-электронными системами1997 год, доктор технических наук Полосин, Лев Леонидович
Комплексирование мультиспектральных изображений на основе безэталонной оценки их качества2024 год, кандидат наук Сычев Алексей Сергеевич
Методы визуализации в оптической локации объектов и сред2024 год, кандидат наук Калитов Михаил Андреевич
Введение диссертации (часть автореферата) на тему «Методы визуализации многоканальных изображений, согласованные с механизмами восприятия цветовых контрастов у человека»
Введение
Во многих областях человеческой деятельности регистрируются изображения, число каналов которых больше трех и может доходить до сотен. Примерами таких областей служат дистанционное зондирование Земли (ДЗЗ), пространственно разрешающая масс-спектрометрия и онкодерматология. При этом в норме максимальное число каналов наблюдаемого изображения, которое может быть воспринято человеком во всей полноте, составляет три канала: это обусловлено тем, что цветовое зрение человека функционирует преимущественно посредством рецепторов-колбочек трех типов. Поэтому всякий раз, когда в вышеперечисленных областях появляется необходимость экспертной оценки многоканального снимка, возникает задача визуализации этих изображений. Сформулируем задачу визуализации многоканальных изображений (ВМИ): входное изображение, число каналов которого является чрезмерным, требуется преобразовать в изображение с меньшим числом каналов с максимальным сохранением важной для человеческого восприятия информации.
Возможный подход к решению задачи ВМИ состоит в том, чтобы выбрать среди каналов многоканального изображения три канала, соответствующих видимому диапазону (RGB), и предоставить их в качестве результирующего изображения. Преимущество такого подхода в том, что результирующее изображение выглядит натурально — создает у человека впечатление, схожее с тем, которое возникло бы, если бы он увидел изображаемую сцену своими глазами. Однако не все сцены можно увидеть своими глазами: в некоторых случаях многоканальные изображения не содержат никакой информации об электромагнитном излучении в видимом диапазоне, как, например, в масс-спектрометрии. Другим недостатком этого подхода является потеря информации, содержащейся в каналах вне видимого диапазона.
Использование для решения задачи ВМИ классических инструментов снижения размерности, например, метода главных компонент (англ. principal component analysis, PCA), не гарантирует сохранения деталей и границ на результирующем изображении. В связи с этим интерес представляют методы, ориентированные на сохранение границ. Для одноканальных изображений градиент в точке определён, в то время как для многоканальных изображений
нативного определения градиента не существует. Впервые обобщение понятия градиента яркости изображения на случай многих каналов было предложено С. Ди Зензо в 1986 году. Затем в 1999 году Д. Соколинский и Л. Вульф предложили на его основе оптимизационный подход к решению задачи ВМИ, который мы будем называть контраст-сохраняющим.
Изначально предложенный оптимизируемый функционал, называемый также линейным критерием сохранения контраста, представляет собой вторую норму отклонений градиента яркости искомого изображения от значений многоканального градиента. Однако линейный критерий не учитывает, что в монотонных областях изображения погрешности градиента оказываются хорошо различимы, тогда как в немонотонных областях те же абсолютные погрешности остаются незамеченными. В 2010 году Соколовым был предложен другой, нелинейный критерий. В своей работе Соколов продемонстрировал определенный потенциал замены критерия в методе контраст-сохраняющей ВМИ. Тем не менее ряд вопросов, связанных с использованием нелинейных критериев, остался неисследованным.
Во-первых, это вопрос реальной эффективности нелинейного критерия Соколова в части сохранения важной с точки зрения человеческого восприятия информации. Есть основания считать, что контраст-сохраняющие методы с нелинейными критериями являются наиболее перспективными, но это предположение требует экспериментального подтверждения. В этой ситуации важную роль играет используемая метрика сходства изображений. Поскольку в задаче ВМИ конечным пользователем является человек, то и сравнивать качество визуализированного изображения с идеальным необходимо в терминах зрительного восприятия, а не по абсолютной погрешности в заданных физических единицах. При этом большое значение имеют условия наблюдения, в первую очередь — расстояние от наблюдателя до дисплея. Оба этих фактора — параметры зрительной системы человека и условия наблюдения — определяют, какие соотношения между пикселями должны быть сохранены в первую очередь, а какие могут быть нарушены без ущерба для восприятия. Например, контраст смежных пикселей сохранить намного важнее, чем контраст сильно удалённых друг от друга, так как ошибки такого контраста заметнее. Подобная приоритизация ошибок очень важна потому, что сохранить все соотношения при снижении числа каналов изображения
принципиально невозможно. Разработка методов оценки качества ВМИ, позволяющих учитывающих эти факторы, остается актуальной задачей.
Во-вторых, все методы ВМИ так или иначе чувствительны к шуму исходных данных, однако у контраст-сохраняющих методов такой эффект особенно выражен: эти методы по построению максимально сохраняют все контрастные элементы, включая шумовые. Поэтому представляется важным разработать метод ВМИ, сохраняющий контраст преимущественно полезного сигнала.
В-третьих, не до конца изученным остается аспект, связанный с визуализацией изображений, ориентированной на людей с дефектами цветового зрения (ДЦЗ), которые заключаются в нарушениях в работе одного из трех типов рецепторов-колбочек. В этом случае число каналов входного изображения должно быть снижено не до трех, а до двух. Люди с ДЦЗ (дихроматы) не могут различить некоторые пары цветов и испытывают трудности при работе с обычными цветными дисплеями. В этом случае целью задачи ВМИ является трансформация цветных изображений таким образом, чтобы элементы изображения, хорошо различимые субъектами с нормальным цветовым зрением (трихроматами) и плохо различимые дихроматами, становились для дихроматов различимы лучше. В такой постановке ВМИ актуальность контраст-сохраняющих методов также очень высока. В настоящее время работы в этой области ведутся научными группами под руководством И. Фарупа, Г. Тенненхольца, М. Менга. При всём разнообразии предлагаемых в научной литературе методов на данный момент ни один из них не обеспечивает контраст-сохраняющую визуализацию трехканальных изображений для дихроматов, сохраняя при этом наглядность результирующего изображения и для трихроматов, хотя попытки в этом направлении предпринимаются. В решении такой задачи требуется учитывать одновременно как свойства нормального зрения, так и особенности, связанные с ДЦЗ. Достижение результата ВМИ, ориентированного одновременно и на дихроматов и на трихроматов, откроет возможности совместного просмотра визуального контента и в конечном счете будет способствовать социализации людей с ДЦЗ.
Целью работы является разработка новых контраст-сохраняющих методов визуализации многоканальных изображений, устойчивых к шуму
и учитывающих параметры метрики и размерность цветового пространства человека.
Для достижения этой цели поставлены и решены следующие задачи:
1. Разработать методику объективного оценивания методов ВМИ, учитывающую свойства контрастной чувствительности человека.
2. Провести на основе разработанной методики сравнение влияния критериев сохранения контраста на результат ВМИ.
3. Разработать метод ВМИ, эффективный в части сохранения визуальной структуры полезного сигнала изображения в присутствии шума.
4. Разработать метод контраст-сохраняющей ВМИ, визуализирующий трехканальное изображение для дихроматов, учитывая при этом особенности восприятия как дихроматов, так и трихроматов.
Научная новизна:
1. Впервые экспериментально обоснована эффективность использования нелинейных критериев в методах контраст-сохраняющей ВМИ.
2. Впервые предложен устойчивый к шуму метод ВМИ, явно опирающийся на модель формирования изображения.
3. Предложен новый метод визуализации трехканальных изображений, позволяющий визуализировать исходные контрасты для дихроматов, который при этом сохраняет узнаваемость объектов на результирующем изображении одновременно и для трихроматов, и для дихроматов.
Практическая значимость. Предложенные в работе методы могут быть использованы в современных мультимедийных устройствах в рамках специальных режимов, предназначенных для помощи людям с ДЦЗ. Также разработанные методы могут быть внедрены в различные виды специализированного программного обеспечения, предназначенного для обработки многоканальных снимков дистанционного зондирования Земли, данных масс-спектрометрии и медицинских изображений с целью обеспечения экспертного скрининга и поиска аномалий. Кроме того, практическое применение результатов диссертации возможно в области задачи деколоризации, актуальной для повышения эффективности черно-белой печати и для вывода изображений на электронную бумагу или на монохромные проекционные дисплеи, используемые в технологиях дополненной реальности.
Предложенные в диссертационном исследовании методы ВМИ были использованы в ИППИ РАН при выполнении проектов РНФ № 14-50-00150, № 20-69-47110 и № 20-61-47089. Результаты работы внедрены в виртуальную лабораторию агронома Л§гоВа1аСиЬе и платформу сбора и анализа гиперспектральных изображений для решения прикладных задач цифровой экономики, что подтверждается соответствующими актами от компаний ООО «Визиллект Сервис» и ООО «Локус».
Методология и методы исследования. В диссертации
используются методы цифрового анализа и обработки изображений, математической статистики, вычислительной оптимизации, а также имитационного моделирования. Работа подготовлена в соответствии с паспортом специальности 1.2.2 — «Математическое моделирование, численные методы и комплексы программ», технические науки. Решаемые в работе задачи соответствуют пп. 5, 6 и 8 («Разработка новых математических методов и алгоритмов валидации математических моделей объектов на основе данных натурного эксперимента или на основе анализа математических моделей», «Разработка систем компьютерного и имитационного моделирования, алгоритмов и методов имитационного моделирования на основе анализа математических моделей», «Комплексные исследования научных и технических проблем с применением современной технологии математического моделирования и вычислительного эксперимента» соответственно).
Основные положения, выносимые на защиту:
1. Метод контраст-сохраняющей ВМИ с нелинейным критерием Соколова превосходит известные ранее методы ВМИ в части сохранения контраста смежных пикселей в задаче деколоризации.
2. В зависимости от условий наблюдения при оценке качества ВМИ следует учитывать угловой размер изображения. Настройка соответствующих параметров метода оценки качества позволяет увеличить корреляцию результатов метода и результатов опроса людей.
3. При контраст-сохраняющей ВМИ зашумленные каналы входного изображения снижают качество результата и требуют специального учета. Предложенный метод оценки шумности каналов позволяет избежать ошибок, вызванных большим градиентом полезного сигнала и характерных для стандартного метода максимума/минимума коэффициентов автокорреляции.
4. Значимое восстановление контраста изображения, теряемого дихроматом, возможно за счет модификации одной лишь яркостной компоненты изображения.
5. В задаче дальтонизации предложенный метод контраст-сохраняющей ВМИ позволяет за счет работы с яркостной компонентой сохранить узнаваемость объектов на результирующем изображении одновременно и для трихроматов, и для дихроматов.
Достоверность полученных результатов подтверждается экспериментами как на данных, полученных путём имитационного моделирования, так и на реальных. Результаты находятся в соответствии с результатами, полученными другими исследователями. Достоверность качественных результатов исследования подтверждается усредненными данными опросов субъективного мнения людей.
Апробация работы. Основные результаты работы докладывались на научном семинаре Лаборатории 11 ИППИ РАН; международной конференции по робототехнике и машинному зрению (International Conference on Robotics and Machine Vision — Москва, Россия, 2016); международной конференции по машинному зрению (International Conference on Machine Vision — Вена, Австрия, 2017).
Личный вклад. Все основные результаты диссертации получены и обоснованы автором самостоятельно. Постановка задач и формализация результатов проводились совместно с научным руководителем.
Публикации. Основные результаты по теме диссертации изложены в 7 печатных работах, 2 из которых изданы в журналах, индексируемых Scopus и WoS; 3 — в журналах, входящих в категорию К1 собственного перечня МФТИ; 2 — в тезисах докладов.
Объем и структура работы. Диссертация состоит из введения, четырех глав и заключения. Полный объём диссертации составляет 136 страниц, включая 46 рисунков и 17 таблиц. Список литературы содержит 155 наименований.
Глава 1. Визуализация многоканального изображения. Задачи
диссертационного исследования
1.1 Цветовое зрение человека
В основе нормального цветового зрения человека лежит наличие в сетчатке глаза трех типов рецепторов-колбочек с различными максимумами спектральной чувствительности - длинноволновых (L), средневолновых (M) и коротковолновых (S) [1; 2]. Стимуляция этих трех типов колбочек вызывает у человека ощущение красного, зелёного и синего цветов, соответственно.
Поскольку прямые измерения чувствительности каждого типа колбочек к длиней волны Л по отдельности являются сложной задачей, впервые цветовое пространство человека было описано с помощью метода уравнивания цвета монохроматических излучений. На основе этого метода была проведена серия экспериментов и получены функции сложения, также называемые функциями цветового соответствия (англ. color matching functions), которые связаны линейным преобразованием с функциями чувствительности колбочек. Функции сложения принято обозначать буквами г(Л),д(Л),Ь(Л), и в силу специфики метода они могут принимать отрицательные значения (см. рис. 1.1). Однако с помощью линейного преобразования функции сложения можно преобразовать в набор всюду неотрицательных функций, причем множеством различных способов. В 1931 году международная комиссия по освещению (МКО, фр. CIE — Commission Internationale d'Eclairage) зафиксировала эти неотрицательные функции в качестве стандарта под названием «стандартный колориметрический наблюдатель» [3]. На основе этого стандарта была разработана система цветовых координат CIE XYZ, которая математически описывает все воспринимаемые человеком цвета:
р(Х>
X = F (Л)х(ЛЩ, J о
/>œ
У = F (Л)у (Л)ОЛ, (1.1)
J о
nœ
z = F (Л)г (Л)йЛ,
о
где ^(Л) — спектральная яркость излучения, х(Х), у (Л), г(Л) — функции чувствительности стандартного наблюдателя, полученные линейным преобразованием из функций сложения.
Л, нм Л, нм
а) б)
Рисунок 1.1 — Спектральные характеристики стандартного колориметрического наблюдателя 1931 года; а) — исходные кривые сложения, б) — соответствующий им базис XYZ. Иллюстрация взята из [4].
Функции чувствительности стандартного наблюдателя не совпадают с реальными спектрами чувствительности Ь-, М-, и 8-колбочек человека, однако системы координат ЬМ8 и С1Е XYZ линейно связаны. Среди ранних методов оценки функций чувствительности колбочек следует упомянуть метод Нюберга и Юстовой [5], а также метод Логвиненко [6], основанный на подходе, предложенном в 1954 году М. Бонгардом и М. Смирновым [7].
Наиболее известные на сегодняшний день данные чувствительности колбочек были получены А. Стокманом и Л. Шарпом, которые использовали методику, основанную на подавлении чувствительности одних типов колбочек и изолированного психофизиологического измерения чувствительности колбочек другого типа. Такое подавление достигается за счет специальных мерцающих стимулов, а также фонов со специально подобранной яркостью и цветностью [8; 9]. Поскольку диапазоны чувствительности колбочек сильно пересекаются, для их отдельного измерения у людей с нормальным цветовым зрением требуется подавлять чувствительность одновременно двух типов колбочек, что технически сложно. Стокман и Шарп использовали методологию, основанную на опросе дихроматов и гипотезе о редукции.
Дихроматы — это люди с дефектом цветового зрения (ДЦЗ) называемом дихромазией. Этот дефект заключается в отсутствии одного из типов колбочек. Дихромазия подразделяется на протанопию, дейтеранопию и
очень редко встречающуюся тританопию в случае отсутствия L-, M- и S-колбочек соответственно. Гипотеза о редукции гласит, что у дихроматов чувствительность наличествующих типов колбочек соответствует таковой у трихроматов. Оценивая чувствительность колбочек у протанопов и дейтеранопов, нужно подавить только S-колбочки, тогда как L или M отсутствуют по естественным причинам [1]. Для оценки чувствительности S-колбочек были поставлен эксперимент с участием трех S-монохроматов, у которых отсутствуют и L- и M-колбочки [10]. Данные чувствительности колбочек по Стокману и Шарпу определяют следующую матрицу перехода из координат LMS в CIE XYZ:
"1,94735469 -1,41445123 0,36476327" XYZ = 0,68990272 0,34832189 0 LMS. 0 0 1,93485343
Описанное выше представление опирается на предположение о том, что человеческое зрение трихроматично, либо дихроматично. Однако такое представление оправдано только в определенных границах. Во-первых, помимо дихромазии существует аномальная трихромазия — отклонение максимума спектральной чувствительности одного из типов колбочек от его нормального положения на оси длин волн. Во-вторых, предположение о трихроматичности адекватно только в небольшой центральной области сетчатки, где находятся только колбочки трех типов. Согласно диссертационной работе О. Басовой [11] в различных условиях в восприятии зрительных стимулов могут принимать участие следующие светочувствительные элементы:
— три типа колбочек (S-колбочки, M-колбочки, L-колбочки), которые играют важную роль в дневном и сумеречном зрении;
— палочки, с максимумом чувствительности вблизи 520 нм, которые, согласно некоторым исследованиям могут влиять на зрительное восприятие не только в условиях слабого освещения, но также и при ярком свете [12; 13];
— меланопсиновые ганглиозные клетки, с максимумом чувствительности вблизи 490 нм [14—16].
На рисунке 1.2 представлены кривые спектральной чувствительности вышеупомянутых элементов сетчатки.
1.0 -
S Mel Rh M L
0.4 -0.2 -0.0 -
0.6 -
Рисунок 1.2 — Нормализованные кривые спектральной чувствительности палочек (Rh), колбочек (S, M, L) и меланопсиновых ганглиозных клеток (Mel). Цветные вертикальные полоски соответствуют некоторым стандартам синего, зеленого и красного цветов. Иллюстрация позаимствована из [17].
Некоторые результаты экспериментов указывают на то, что наиболее полная модель цветового зрения человека должна быть четырех-или даже пятимерной [18—20]. К сожалению, пока не существует удовлетворительных моделей цветового зрения человека, которые бы учитывали светочувствительные элементы сетчатки всех типов [11], поэтому в данной работе приходится ориентироваться на традиционные и во многих случаях адекватные представления о цветовом зрении человека как в норме трехмерном.
1.2 Многоканальные изображения в техническом зрении
Физическое изображение — это пространственное распределение амплитуды физического сигнала той или иной природы на некоторой кривой, поверхности или в объеме. Сигнал может быть акустическим (УЗИ, сейсмография), оптическим, радио- (радары), рентгеновским (рентгенография и томография), магнитно-резонансным (ЯМР/МРТ) и т.д. В этом случае изображение соответственно называется акустическим, оптическим, радио- и т.д. В настоящей диссертации рассмотрение ограничено плоскими изображениями, то есть распределениями сигнала
по поверхности. Соответственно, случай томографического изображения, представляющего собой трехмерное пространственное распределение сигнала, не рассматривается.
Цифровое изображение — это цифровая запись пространственного распределения некоторого значения. Цифровое изображение представляет собой дискретнозначную функцию, заданную на дискретной решетке. Цифровое изображение может быть записью физического изображения (амплитуды соответствующего сигнала), а может не иметь физического прообраза. В этом разделе будут рассмотрены две модели цифрового изображения: общая модель изображения и более частная цветовая модель зашумленного многоканального изображения. Основная часть результатов диссертационного исследования относится к изображениям, описываемым цветовой моделью зашумленного многоканального изображения. Метод визуализации многоканальных изображений масс-спектрометрии, предложенный автором диссертации в работе [21], относится к классу изображений, описываемых общей моделью, но не подпадающих под частную.
В рамках общей модели изображение — это отображение с : О ^ где прямоугольная дискретная решетка О С Ж2 является областью определения, а С С является областью значений, п — число каналов изображения. Примером изображения, описываемого общей моделью, является цветная цифровая фотография. В качестве О выступает решетка координат пикселей, соответствующая размеру матрицы сенсора и задающая размер фотографии, в качестве С выступает множество цветовых координат эКСБ.
В рамках цветовой модели зашумленного многоканального изображения цифровое изображение формируется в результате:
1. регистрации электромагнитного излучения линейным сенсором, линейно отображающим спектральное распределение освещенности в конечномерное пространство координат, называемое пространством реакций сенсора [3];
2. зашумления сигнала по причине случайного характера потока фотонов и других источников шума, не зависящих от освещенности сенсора [22].
Формирующий изображение светочувствительный элемент сенсора, который освещается с некоторой интенсивностью, принимает в течение некоторого времени случайное число электронов путем поглощения фотонов.
Средний вектор реакций сенсора оценивается согласно следующей формуле:
е(х,у) = ^ (Л,х,у)Х(ЛЩ, (1.2)
,/0
где е(х,у) — средний вектор реакций сенсора на освещенность, заданную спектральным распределением Р(Л,х,у), (х,у) — дискретные координаты светочувствительного элемента сенсора, соответствующие направлению, по которому приходит свет из сцены в оптический центр камеры, X(Л) — вектор функций спектральной чувствительности сенсора к разным длинам волн.
Освещенность сенсора может создаваться самосветящимся объектом (источником света), но может и представлять собой результат отражения освещения от поверхностей сцены:
^ (Л,х,у) = Ф(Л,х,у)Ь(Л), (1.3)
где Ф(Л,х,у) — коэффициент отражения наблюдаемой поверхности сцены, Ь(Л) — спектральное распределение источника света.
Зашумленный сигнал связан со средним сигналом следующим образом:
е(х,у) = е(х,у) + ц(е(х,у)), (1.4)
где ц(х,у) — реализация случайной величины, распределенной согласно нормальному закону М(0,У(е)). Примером зависимости V(е) является модель Яне [22], в рамках которой дисперсия V линейно зависит от среднего значения сигнала, регистрируемого в координатах (х,у):
V = gc + а2, (1.5)
где g — вектор коэффициентов усиления сигнала, а2 — дисперсия числа электронов, порождаемых другими источниками шума, не зависящими от освещенности сенсора. Коэффициенты усиления сигнала могут быть разными для разных каналов как цветных трехканальных [23], так и гиперспектральных [24] изображений.
Размерность вектора Х(Л) определяет размерность пространства реакций сенсора. В случае ЯСВ-камер это трехмерное пространство, в случае мультиспектральных и гиперспектральных камер пространство реакций сенсора может иметь размерность от четырех до нескольких сотен.
Каждая функция спектральной чувствительности X(Л) по отдельности характеризует отдельный канал цифрового изображения с(х,у). У обычных
ИСБ-камер, как и у фоторецепторов зрительной системы человека, функции чувствительности покрывают широкий диапазон и сильно пересекаются (см. рис. 1.3). У мультиспектральных камер функции чувствительности пересекаются намного меньше (рис. 1.4). У гиперспектральных камер они могут быть приближённо представлены набором непересекающихся узких прямоугольных импульсов, образующих единую кривую (рис. 1.4).
Рисунок 1.3 — Функции спектральной чувствительности: слева — стандартного колориметрического наблюдателя 1931 г., справа — фотоаппарата Canon EOS 600D. Иллюстрация взята из [4].
А 7V ч ñ у л / ............ г Тл - S2AB1 - S2A В2 - Б2А_ВЗ - 52А В4
/ V V\> L - 52А_В5 52А_В6 Б2А_В7
\ - Б2А_В8 S2A_B8A - CMV4000
i i
400 500 600 700 800 900 1000
Длина волны, нм
Рисунок 1.4 — Функции чувствительности каналов мультиспектрального сенсора Multispectral Instrument и единая спектральная чувствительность
гиперспектрального сенсора CMV4000.
В зависимости от диапазона чувствительности канала в нем может быть зарегистрировано радиоизлучение (длины волн от 1 мм и более), инфракрасное излучение (длины волн от 1 мм до 780 нм), видимый свет (длины волн от 780 нм до 380 нм), ультрафиолетовое излучение (длины волн от 380
нм до 10 нм), рентгеновское излучение (длины волн от 10 нм и менее). Пример изображения, составленного из каналов видимого, инфракрасного и рентгеновского диапазонов представлен на рис. 1.5.
Похожие диссертационные работы по специальности «Другие cпециальности», 00.00.00 шифр ВАК
Методы и алгоритмы целевой интерактивной обработки многоканальных двумерных сигналов по принципу сходства с эталоном2009 год, кандидат технических наук Малов, Андрей Михайлович
Методы моделирования цветных подводных изображений на основе RGB-D изображений надводных сцен2020 год, кандидат наук Шепелев Денис Александрович
Количественные критерии оценки качества цифровой обработки изображений веществ различной физико-химической природы2014 год, кандидат наук Жуковская, Инга Анатольевна
Разработка и анализ неэталонного алгоритма оценки качества изображений на основе дискретного преобразования2013 год, кандидат наук Павлов, Евгений Александрович
Разработка методики определения удельных координат цвета физиологической системы2011 год, кандидат технических наук Гордюхина, Светлана Сергеевна
Список литературы диссертационного исследования кандидат наук Сидорчук Дмитрий Сергеевич, 2024 год
Список литературы
1. Stockman A., Sharpe L. T. The spectral sensitivities of the middle-and long-wavelength-sensitive cones derived from measurements in observers of known genotype // Vision research. — 2000. — Т. 40, № 13. — С. 1711—1737.
2. Stockman A., Sharpe L. T. Tritanopic color matches and the middle-and long-wavelength-sensitive cone spectral sensitivities // Vision research. — 2000. — Т. 40, № 13. — С. 1739—1750.
3. Николаев Д. П., Николаев П. П., Гладилин С. А., Божкова В. П. Основы цветовой теории в техническом зрении Часть 1. Введение в цветовую теорию / под ред. К. К.А. — Москва, пер. Порядковый, д. 21 : Мир науки, 2021.
4. Николаев П. П., Николаев Д. П., Гладилин С. А., Басова О. А., Ярыкина М. С. Сборник задач по обработке изображений и техническому зрению. — Москва, набережная Новикова-Прибоя, 3 к. 2 : Восход, 2023.
5. Nuberg N., Yustova E. Researches on dichromatic vision and the spectral sensitivity of the receptors of trichromats // Visual Problems of Colours. — 1958. — Т. 2. — С. 475—486.
6. Logvinenko A. D. On derivation of spectral sensitivities of the human cones from trichromatic colour matching functions // Vision research. — 1998. — Т. 38, № 21. — С. 3207—3211.
7. Bongard M, Smirnov M. Determination of the eye spectral sensitivity curves from spectral mixture curves // Doklady Akademiia nauk SSSR. Т. 102. — 1954. — С. 1111—1114.
8. Stiles W. S. Mechanisms of colour vision: selected papers of WS stiles with a new introductory essay. — London, New York, San Francisco: Academic Press., 1978.
9. Eisner A., MacLeod D. Flicker photometric study of chromatic adaptation: selective suppression of cone inputs by colored backgrounds // JOSA. — 1981. — Т. 71, № 6. — С. 705—718.
10. Stockman A., Sharpe L. T., Fach C. The spectral sensitivity of the human short-wavelength sensitive cones derived from thresholds and color matches // Vision research. — 1999. — Т. 39, № 17. — С. 2901—2927.
11. Басова О. А. Модели дефектов матрицы фотоэмиссионных дисплеев и методы их камуфлирования : дис. ... канд. / Басова Ольга Андреевна. — МФТИ, 2022. — С. 1—120.
12. Buck S. L. What is the hue of rod vision? // Color Research & Application. — 2001. — Т. 26, S1. — S57—S59.
13. Cao D., Pokorny J., Smith V. C, Zele A. J. Rod contributions to color perception: linear with rod contrast // Vision research. — 2008. — Т. 48, № 26. — С. 2586—2592.
14. Hattar S., Liao H.-W, Takao M, Berson D. M, Yau K.-W. Melanopsin-containing retinal ganglion cells: architecture, projections, and intrinsic photosensitivity // Science. — 2002. — Т. 295, № 5557. — С. 1065—1070.
15. Berson D. M., Dunn F. A., Takao M. Phototransduction by retinal ganglion cells that set the circadian clock // Science. — 2002. — Т. 295, № 5557. — С. 1070—1073.
16. Spitschan M. Melanopsin contributions to non-visual and visual function // Current opinion in behavioral sciences. — 2019. — Т. 30. — С. 67—72.
17. International Standard: CIE System for Metrology of Optical Radiation for ipRGC-Influenced Responses to Light. — 2018.
18. Trezona P. The tetrachromatic colour match as a colorimetric technique // Vision Research. — 1973. — Т. 13, № 1. — С. 9—25.
19. Brill M. H. Mesopic color matching: some theoretical issues // JOSA A. — 1990. — Т. 7, № 10. — С. 2048—2051.
20. Polymeropoulos G., Bisketzis N., Topalis F. A tetrachromatic model for colorimetric use in mesopic vision // Color Research & Application. — 2011. — Т. 36, № 2. — С. 82—95.
22. Яне Б. Цифровая обработка изображений. — Москва : Техносфера, 2007.
23. Konovalenko I. A., Smagina A. A., Nikolaev D. P., Nikolaev P. P. ProLab: a perceptually uniform projective color coordinate system // IEEE Access. — 2021. — Т. 9. — С. 133023—133042.
24. Rasti B., Scheunders P., Ghamisi P., Licciardi G., Chanussot J. Noise reduction in hyperspectral imagery: Overview and application // Remote Sensing. — 2018. — Т. 10, № 3. — С. 482.
25. URL: https://www.esa.int/ESA_Multimedia/Images/2024/03/Marvel_at_ stunning_echo_of_800-year-old_explosion. — (Дата обр. 20.09.2024).
27. Nikolaev D. P., Gladkov A., Chernov T, Bulatov K. Diamond Recognition Algorithm using Two-Channel X-ray Radiographic Separator // ICMV 2014. Т. 9445 / под ред. A. V. B. V. P. R. J. Zhou. — Bellingham, Washington 98227-0010 USA : Society of Photo-Optical Instrumentation Engineers (SPIE), 02.2015. — С. 944507-1—944507-10. — DOI: 10.1117/12.2181204.
28. Buzmakov A., Chukalina M., Dyachkova I., Ingacheva A., Nikolaev D., Zolotov D., Schelokov I. Enhanced Tomographic Sensing Multimodality with a Crystal Analyzer // Sensors. — 2020. — Т. 20, № 23. — С. 6970.
29. Phillips P. J., Hahn C. A., Fontana P. C., Broniatowski D. A., Przybocki M. A. Four principles of explainable artificial intelligence. NIST Interagency/Internal Report (NISTIR), National Institute of Standards and Technology, Gaithersburg, MD. — 2020.
30. Selvaraju R. R., Cogswell M., Das A., Vedantam R., Parikh D., Batra D. Grad-cam: Visual explanations from deep networks via gradient-based localization // Proceedings of the IEEE international conference on computer vision. — 2017. — С. 618—626.
31. Zhang H, Xu H, Tian X., Jiang J., Ma J. Image fusion meets deep learning: A survey and perspective // Information Fusion. — 2021. — Т. 76. — С. 323—336.
32. Liu Y., Heer J. Somewhere over the rainbow: An empirical assessment of quantitative colormaps // Proceedings of the 2018 CHI conference on human factors in computing systems. — 2018. — С. 1—12.
33. Light A., Bartlein P. J. The end of the rainbow? Color schemes for improved data graphics // Eos, Transactions American Geophysical Union. — 2004. — Т. 85, № 40. — С. 385—391.
34. Borland D., Ii R. M. T. Rainbow color map (still) considered harmful // IEEE computer graphics and applications. — 2007. — T. 27, № 2. — C. 14—17.
35. Rogowitz B. E., Treinish L. A. Data visualization: the end of the rainbow // IEEE spectrum. — 1998. — T. 35, № 12. — C. 52—59.
36. Ware C. Color sequences for univariate maps: Theory, experiments and principles // IEEE Computer Graphics and Applications. — 1988. — T. 8, № 5. — C. 41—49.
37. Nunez J. R., Anderton C. R., Renslow R. S. Optimizing colormaps with consideration for color vision deficiency to enable accurate interpretation of scientific data // PloS one. — 2018. — T. 13, № 7. — e0199239.
38. Zimmermann L, Sobolev M. Digital Strategies for Screen Time Reduction: A Randomized Field Experiment // Cyberpsychology, Behavior, and Social Networking. — 2023. — T. 26, № 1. — C. 42—49.
39. Hayes A. E., Montagna R., Finlayson G. D. New applications of Spectral Edge image fusion // Algorithms and Technologies for Multispectral, Hyperspectral, and Ultraspectral Imagery XXII. T. 9840. — SPIE. 2016. — C. 42—52.
40. Birch J. Worldwide prevalence of red-green color deficiency // JOSA A. — 2012. — T. 29, № 3. — C. 313—320.
41. Alvaro L, Moreira H., Lillo J., Franklin A. Color preference in red-green dichromats // Proceedings of the national academy of sciences. — 2015. — T. 112, № 30. — C. 9316—9321.
42. Lanthony P. The history of color blindness. — Wayenborgh Publishing, 2018.
43. Sharpe L. T, Jagle H. I used to be color blind // Color Research & Application: Endorsed by Inter-Society Color Council, The Colour Group (Great Britain), Canadian Society for Color, Color Science Association of Japan, Dutch Society for the Study of Color, The Swedish Colour Centre Foundation, Colour Society of Australia, Centre Francais de la Couleur. — 2001. — T. 26, S1. — S269—S272.
44. Salih A. E, Elsherif M, Ali M, Vahdati N., Yetisen A. K., Butt H. Ophthalmic wearable devices for color blindness management // Advanced Materials Technologies. — 2020. — T. 5, № 8. — C. 1901134.
45. Jordan J., Angelopoulou E, Maier A. A novel framework for interactive visualization and analysis of hyperspectral image data // Journal of Electrical and Computer Engineering. — 2016. — T. 2016, № 1. — C. 2635124.
46. Duan H.-w., Zhu R.-g., Yao X.-d., Lewis E. Sensitive variables extraction, non-destructive detection and visualization of total viable count (TVC) and pH in vacuum packaged lamb using hyperspectral imaging // Analytical Methods. — 2017. — T. 9, № 21. — C. 3172—3183.
47. Liao D., Qian Y, Zhou J., Tang Y. Y. A manifold alignment approach for hyperspectral image visualization with natural color // IEEE Transactions on Geoscience and Remote Sensing. — 2016. — T. 54, № 6. — C. 3151—3162.
48. Pearson K. LIII. On lines and planes of closest fit to systems of points in space // The London, Edinburgh, and Dublin philosophical magazine and journal of science. — 1901. — T. 2, № 11. — C. 559—572.
49. Ready P., Wintz P. Information extraction, SNR improvement, and data compression in multispectral imagery // IEEE Transactions on communications. — 1973. — T. 21, № 10. — C. 1123—1131.
50. Scheunders P. Local mapping for multispectral image visualization // Image and Vision Computing. — 2001. — T. 19, № 13. — C. 971—978.
51. Socolinsky D. A., Wolff L. B. A new visualization paradigm for multispectral imagery and data fusion // Proceedings. 1999 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (Cat. No PR00149). T. 1. — IEEE. 1999. — C. 319—324.
52. Sokolov V., Nikolaev D., Karpenko S., Schaefer G. On contrast-preserving visualisation of multispectral datasets // International Symposium on Visual Computing. — Springer. 2010. — C. 173—180.
53. Zhao W, Xu Z, Zhao J. Gradient entropy metric and p-Laplace diffusion constraint-based algorithm for noisy multispectral image fusion // Information Fusion. — 2016. — T. 27. — C. 138—149.
54. Jung H., Kim Y, Jang H., Ha N., Sohn K. Unsupervised deep image fusion with structure tensor representations // IEEE Transactions on Image Processing. — 2020. — T. 29. — C. 3845—3858.
55. Zhang H., Xu H., Xiao Y, Guo X., Ma J. Rethinking the image fusion: A fast unified image fusion network based on proportional maintenance of gradient and intensity // Proceedings of the AAAI conference on artificial intelligence. Т. 34. — 2020. — С. 12797—12804.
56. Vizil'ter Y. V., Vygolov O, Komarov D., Lebedev M. Fusion of Images of Different Spectra Based on Generative Adversarial Networks // Journal of Computer and Systems Sciences International. — 2019. — Т. 58, № 3. — С. 441—453.
57. Brouwer L. E. Beweis der invarianz desn-dimensionalen gebiets // Mathematische Annalen. — 1911. — Т. 71, № 3. — С. 305—313.
59. Di Zenzo S. A note on the gradient of a multi-image // Computer vision, graphics, and image processing. — 1986. — Т. 33, № 1. — С. 116—125.
60. Nikolaev D., Karpenko S. Color-to-grayscale image transformation preserving the gradient structure // 20th European Conf. Modeling & Simul. — 2006. — С. 427—430.
61. Drew M. S., Connah D., Finlayson G. D., Bloj M. Improved colour to greyscale via integrability correction // Human Vision and Electronic Imaging XIV. Т. 7240. — International Society for Optics, Photonics. 2009. — 72401B.
62. Alsam A., Drew M. S. Fast colour2grey // Color and Imaging Conference. Т. 2008. — Society for Imaging Science, Technology. 2008. — С. 342—346.
63. Alsam A., Drew M. Fast multispectral2gray // Journal of Imaging Science and Technology. — 2009. — Т. 53, № 6. — С. 60401—1.
64. Wuerger S. M, Watson A. B., Ahumada Jr A. J. Towards a spatio-chromatic standard observer for detection // Human Vision and Electronic Imaging VII. Т. 4662. — SPIE. 2002. — С. 159—172.
65. Nadenau M. Integration of human color vision models into high quality image compression : дис. ... канд. / Nadenau Marcus. — Citeseer, 2000.
66. Kim Y. J., Reynaud A., Hess R. F., Mullen K. T. A normative data set for the clinical assessment of achromatic and chromatic contrast sensitivity using a qCSF approach // Investigative ophthalmology & visual science. — 2017. — Т. 58, № 9. — С. 3628—3636.
67. Kim K. J., Mantiuk R., Lee K. H. Measurements of achromatic and chromatic contrast sensitivity functions for an extended range of adaptation luminance // Human vision and electronic imaging XVIII. T. 8651. — SPIE. 2013. — C. 319—332.
68. Brainard D. Cone contrast and opponent modulation color spaces // Human color vision. — 1996.
69. Van der Horst G. J., Bouman M. A. Spatiotemporal chromaticity discrimination // JOSA. — 1969. — T. 59, № 11. — C. 1482—1488.
70. Van der Maaten L, Hinton G. Visualizing data using t-SNE // Journal of machine learning research. — 2008. — T. 9, № 11. — C. 2579—2605.
71. Smets T., Verbeeck N., Claesen M., Asperger A., Griffioen G., Tousseyn T., Waelput W, Waelkens E., De Moor B. Evaluation of distance metrics and spatial autocorrelation in uniform manifold approximation and projection applied to mass spectrometry imaging data // Analytical chemistry. — 2019. — T. 91, № 9. — C. 5706—5714.
72. Ridder H. de, Endrikhovski S. 33.1: Invited paper: image quality is FUN: reflections on fidelity, usefulness and naturalness // SID Symposium Digest of Technical Papers. T. 33. — Wiley Online Library. 2002. — C. 986—989.
73. Connah D., Drew M. S., Finlayson G. D. Spectral edge image fusion: Theory and applications // Computer Vision-ECCV 2014: 13th European Conference, Zurich, Switzerland, September 6-12, 2014, Proceedings, Part V 13. — Springer. 2014. — C. 65—80.
74. Connah D., Drew M. S., Finlayson G. D. Spectral edge: gradient-preserving spectral mapping for image fusion // JOSA A. — 2015. — T. 32, № 12. — C. 2384—2396.
75. Hayes A. E., Finlayson G. D., Montagna R. RGB-NIR image fusion: metric and psychophysical experiments // Image Quality and System Performance XII. T. 9396. — SPIE. 2015. — C. 265—273.
76. Simon-Liedtke J. T, Farup I. Spatial intensity channel replacement daltonization (sicharda) // Color Imaging XX: Displaying, Processing, Hardcopy, and Applications. T. 9395. — SPIE. 2015. — C. 307—320.
77. Simon-Liedtke J. T, Farup I. Multiscale daltonization in the gradient domain // Journal of Perceptual Imaging. — 2018. — T. 1, № 1. — C. 10503—1.
78. Farup I. Individualised Halo-Free Gradient-Domain Colour Image Daltonisation // Journal of Imaging. — 2020. — T. 6, № 11. — C. 116.
79. Finlayson G. D., Hayes A. E. Pop image fusion-derivative domain image fusion without reintegration // Proceedings of the IEEE International Conference on Computer Vision. — 2015. — C. 334—342.
80. Lu C, Xu L, Jia J. Contrast preserving decolorization with perception-based quality metrics // International journal of computer vision. — 2014. — T. 110, № 2. — C. 222—239.
81. Lu C, Xu L, Jia J. Contrast preserving decolorization // Computational Photography (ICCP), 2012 IEEE International Conference on. — IEEE. 2012. — C. 1—7.
82. Liao D., Chen S., Qian Y. Visualization of hyperspectral images using moving least squares // 2018 24th International Conference on Pattern Recognition (ICPR). — IEEE. 2018. — C. 2851—2856.
83. Coliban R.-M., Marinca§ M., Hatfaludi C., Ivanovici M. Linear and non-linear models for remotely-sensed hyperspectral image visualization // Remote Sensing. — 2020. — T. 12, № 15. — C. 2479.
84. Kang X., Duan P., Li S., Benediktsson J. A. Decolorization-based hyperspectral image visualization // IEEE Transactions on Geoscience and Remote Sensing. — 2018. — T. 56, № 8. — C. 4346—4360.
85. Gabarda S., Cristobal G. Quality evaluation of blurred and noisy images through local entropy histograms // Bioengineered and Bioinspired Systems III. T. 6592. — SPIE. 2007. — C. 356—364.
86. Tang R., Liu H, Wei J., Tang W. Supervised learning with convolutional neural networks for hyperspectral visualization // Remote Sensing Letters. — 2020. — T. 11, № 4. — C. 363—372.
87. Narwaria M, Mantiuk R. K, Da Silva M. P., Le Callet P. HDR-VDP-2.2: a calibrated method for objective quality prediction of high-dynamic range and standard images // Journal of Electronic Imaging. — 2015. — T. 24, № 1. — C. 010501—010501.
88. Mantiuk R. K., Hammou D., Hanji P. HDR-VDP-3: A multi-metric for predicting image differences, quality and contrast distortions in high dynamic range and regular content // arXiv preprint arXiv:2304.13625. — 2023.
89. Zhang L., Shen Y., Li H. VSI: A visual saliency-induced index for perceptual image quality assessment // IEEE Transactions on Image processing. —
2014. — T. 23, № 10. — C. 4270—4281.
90. Zhang L., Zhang L., Mou X., Zhang D. FSIM: A feature similarity index for image quality assessment // IEEE transactions on Image Processing. — 2011. — T. 20, № 8. — C. 2378—2386.
91. Wang Z, Bovik A. C, Sheikh H. R., Simoncelli E. P. Image quality assessment: from error visibility to structural similarity // IEEE transactions on image processing. — 2004. — T. 13, № 4. — C. 600—612.
92. Ma K., Zhao T., Zeng K., Wang Z. Objective quality assessment for color-to-gray image conversion // IEEE Transactions on Image Processing. —
2015. — T. 24, № 12. — C. 4673—4685.
93. Machado G. M., Oliveira M. M. Real-time temporal-coherent color contrast enhancement for dichromats // Computer Graphics Forum. T. 29. — Wiley Online Library. 2010. — C. 933—942.
94. Zhu Z, Toyoura M, Go K., Fujishiro I., K. K., Mao X. Naturalness- and information-preserving image recoloring for red-green dichromats // Signal Processing: Image Communication. — 2019. — T. 76. — C. 68—80.
95. Wang X., Zhu Z, Chen X., Go K., Toyoura M, Mao X. Fast contrast and naturalness preserving image recolouring for dichromats // Computers & Graphics. — 2021. — T. 98. — C. 19—28.
96. Sowmya V., Govind D., Soman K. Significance of incorporating chrominance information for effective color-to-grayscale image conversion // Signal, Image and Video Processing. — 2017. — T. 11, № 1. — C. 129—136.
97. Zhao H., Zhang H, Jin X. Efficient image decolorization with a multimodal contrast-preserving measure // Computers & Graphics. — 2018. — T. 70. — C. 251—260.
98. Zhang X., Liu S. Contrast preserving image decolorization combining global features and local semantic features // The Visual Computer. — 2018. — T. 34, № 6. — C. 1099—1108.
99. McLaren K. XIII—The development of the CIE 1976 (L* a* b*) uniform colour space and colour-difference formula // Journal of the Society of Dyers and Colourists. — 1976. — T. 92, № 9. — C. 338—341.
100. Gooch A. A., Olsen S. C., Tumblin J., Gooch B. Color2gray: salience-preserving color removal // ACM Transactions on Graphics (TOG). — 2005. — T. 24, № 3. — C. 634—639.
101. Smith K., Landes P.-E., Thollot J., Myszkowski K. Apparent greyscale: A simple and fast conversion to perceptually accurate images and video // Computer Graphics Forum. T. 27. — Wiley Online Library. 2008. — C. 193—200.
102. Grundland M, Dodgson N. A. Decolorize: Fast, contrast enhancing, color to grayscale conversion // Pattern Recognition. — 2007. — T. 40, № 11. — C. 2891—2896.
103. Chen H.-C., Wang S.-J. The use of visible color difference in the quantitative evaluation of color image segmentation // 2004 IEEE international conference on acoustics, speech, and signal processing. T. 3. — IEEE. 2004. — C. iii—593.
104. Kendall M. G. A new measure of rank correlation // Biometrika. — 1938. — T. 30, № 1/2. — C. 81—93.
105. Cadik M. Perceptual evaluation of color-to-grayscale image conversions // Computer Graphics Forum. T. 27. — Wiley Online Library. 2008. — C. 1745—1754.
106. Bala R., Braun K. M. Color-to-grayscale conversion to maintain discriminability // Color Imaging IX: Processing, Hardcopy, and Applications. T. 5293. — International Society for Optics, Photonics. 2003. — C. 196—202.
107. Neumann L., (Cadik M., Nemcsics A. An efficient perception-based adaptive color to gray transformation // Proceedings of the Third Eurographics conference on Computational Aesthetics in Graphics, Visualization and Imaging. — 2007. — C. 73—80.
108. Rasche K., Geist R., Westall J. Detail preserving reproduction of color images for monochromats and dichromats // IEEE Computer Graphics and Applications. — 2005. — T. 25, № 3. — C. 22—30.
109. Thurstone L. L. A law of comparative judgment. // Psychological review. — 1927. — T. 34, № 4. — C. 273.
111. Healey G. E., Kondepudy R. Radiometric CCD camera calibration and noise estimation // IEEE Transactions on Pattern Analysis and Machine Intelligence. — 1994. — T. 16, № 3. — C. 267—276.
112. Socolinsky D. A. A locally-adaptive metric for contrast-fusion of noisy multimodal imagery // Proc. Signal and Image Processing 2000, IASTED, Las Vegas. — 2000. — C. 1—7.
113. Olsen S. I. Estimation of noise in images: An evaluation // CVGIP: Graphical Models and Image Processing. — 1993. — T. 55, № 4. — C. 319—323.
114. Liu C, Freeman W. T, Szeliski R., Kang S. B. Noise estimation from a single image // 2006 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR'06). T. 1. — IEEE. 2006. — C. 901—908.
115. Switzer P. Min/max Autocor-relation Factors for Multivariate Spatial Imagery // Technical report, Dept. of Statistics, Stanford University. — 1984.
117. Coleman T. F., Li Y. An interior trust region approach for nonlinear minimization subject to bounds // SIAM Journal on optimization. — 1996. — T. 6, № 2. — C. 418—445.
118. Huang X., Zhang L. A comparative study of spatial approaches for urban mapping using hyperspectral ROSIS images over Pavia City, northern Italy // International Journal of Remote Sensing. — 2009. — T. 30, № 12. — C. 3205—3221.
119. Porter W. M., Enmark H. T. A system overview of the airborne visible/infrared imaging spectrometer (AVIRIS) // Imaging Spectroscopy II. T. 834. — SPIE. 1987. — C. 22—31.
121. Samigulina G. A., Samigulin T. I. Development of a cognitive mnemonic scheme for an optical Smart-technology of remote learning based of Artificial Immune Systems // Computer optics. — 2021. — T. 45, № 2. — C. 286—295.
122. Ribeiro M., Gomes A. J. Recoloring algorithms for colorblind people: A survey // ACM Computing Surveys (CSUR). — 2019. — T. 52, № 4. — C. 1—37.
123. Hung P.-c, Hiramatsu N. A colour conversion method which allows colourblind and normal-vision people share documents with colour content // Konica Minolta technology report. — 2013. — T. 10, № 1. — C. 30—36.
124. Geddes C, Flatla D. R., Connelly C. L. 30 Years of Solving the Wrong Problem: How Recolouring Tool Design Fails those with Colour Vision Deficiency // Proceedings of the 25th International ACM SIGACCESS Conference on Computers and Accessibility. — 2023. — C. 1—13.
125. Kuhn G. R., Oliveira M. M., Fernandes L. A. An efficient naturalness-preserving image-recoloring method for dichromats // IEEE transactions on visualization and computer graphics. — 2008. — T. 14, № 6. — C. 1747—1754.
126. Hassan M. F., Paramesran R. Naturalness preserving image recoloring method for people with red-green deficiency // Signal Processing: Image Communication. — 2017. — T. 57. — C. 126—133.
127. Huang W, Zhu Z, Chen L, Go K., Chen X., Mao X. Image recoloring for Red-Green dichromats with compensation range-based naturalness preservation and refined dichromacy gamut // The Visual Computer. — 2022. — T. 38, № 9/10. — C. 3405—3418.
128. Zhu Z, Toyoura M., Go K., Fujishiro I., Kashiwagi K., Mao X. Processing images for red-green dichromats compensation via naturalness and information-preservation considered recoloring // The Visual Computer. — 2019. — T. 35. — C. 1053—1066.
129. Bourdieu P. On Television and Journalism. — London: Pluto Press, 1998.
130. Calvert B., Casey N., Casey B., French L, Lewis J. Television studies: The key concepts. — Routledge, 2007.
131. Lull J. Inside family viewing: Ethnographic research on television's audiences. — 1993.
132. Tu P.-Y., Chen M.-L, Yang C.-L., Wang H.-C. Co-viewing room: Mobile TV content sharing in social chat // Proceedings of the 2016 CHI Conference Extended Abstracts on Human Factors in Computing Systems. — 2016. — C. 1615—1621.
133. Ducheneaut N., Moore R. J., Oehlberg L., Thornton J. D., Nickell E. Social TV: Designing for distributed, sociable television viewing // Intl. Journal of Human-Computer Interaction. — 2008. — T. 24, № 2. — C. 136—154.
134. Shen W, Mao X., Hu X., Wong T.-T. Seamless visual sharing with color vision deficiencies // ACM Transactions on Graphics (TOG). — 2016. — T. 35, № 4. — C. 1—12.
135. Tanaka G., Suetake N., Uchino E. Lightness modification of color image for protanopia and deuteranopia // Optical review. — 2010. — T. 17. — C. 14—23.
136. Tennenholtz G, Zachevsky I. Natural contrast enhancement for dichromats using similarity maps // 2016 IEEE International Conference on the Science of Electrical Engineering (ICSEE). — IEEE. 2016. — C. 1—5.
137. Meng M, Tanaka G. Lightness modification method considering visual characteristics of protanopia and deuteranopia // Optical Review. — 2020. — T. 27, № 6. — C. 548—560.
138. Fairchild M. D. Color appearance models. — John Wiley & Sons, 2013.
139. Barbur J. L, Rodriguez-Carmona M. Colour vision requirements in visually demanding occupations // British medical bulletin. — 2017. — T. 122, № 1. — C. 51—77.
140. Vienot F., Brettel H, Mollon J. D. Digital video colourmaps for checking the legibility of displays by dichromats // Color Research & Application. — 1999. — T. 24, № 4. — C. 243—252.
141. Rana A., Singh P., Valenzise G., Dufaux F., Komodakis N., Smolic A. Deep tone mapping operator for high dynamic range images // IEEE Transactions on Image Processing. — 2019. — T. 29. — C. 1285—1298.
142. Kwon H.-J, Lee S.-H. Multi-Layer Decomposition and Synthesis of HDR Images to Improve High-Saturation Boundaries // Mathematics. — 2023. — T. 11, № 3. — C. 785.
143. Choi S. Y, Luo M, Pointer M, Rhodes P. Investigation of large display color image appearance-III: Modeling image naturalness // Journal of Imaging Science and Technology. — 2009. — T. 53, № 3. — C. 31104—1.
144. Le Q.-T., Ladret P., Nguyen H.-T, Caplier A. Study of naturalness in tone-mapped images // Computer Vision and Image Understanding. — 2020. — T. 196. — C. 102971.
145. Ridder H. de, Blommaert F. J., Fedorovskaya E. A. Naturalness and image quality: chroma and hue variation in color images of natural scenes // Human Vision, Visual Processing, and Digital Display VI. T. 2411. — SPIE. 1995. — C. 51—61.
146. Yoshida A., Blanz V., Myszkowski K., Seidel H.-P. Perceptual evaluation of tone mapping operators with real-world scenes // Human Vision and Electronic Imaging X. T. 5666. — SPIE. 2005. — C. 192—203.
147. Zhu Z, Mao X. Image recoloring for color vision deficiency compensation: a survey // The Visual Computer. — 2021. — T. 37, № 12. — C. 2999—3018.
148. Image technology colour management - Extensions to architecture, profile format, and data structure. — 2019. — URL: https : / /www.color.org/ specification/ICC.2-2019.pdf. International Color Consortium Specification ICC.2:2019 (Profile version 5.0.0 - iccMAX).
149. B Judd D., Wyszecki G. Color in Business, Science and Industry. — Third. — New York : John Wiley & Sons, 1975.
150. Li H., Zhang L., Zhang X., Zhang M., Zhu G., Shen P., Li P., Bennamoun M, Shah S. A. A. Color vision deficiency datasets & recoloring evaluation using GANs // Multimedia Tools and Applications. — 2020. — T. 79, № 37. — C. 27583—27614.
151. Barbur J. L, Connolly D. M. Effects of hypoxia on color vision with emphasis on the mesopic range // Expert Review of Ophthalmology. — 2011. — T. 6, № 4. — C. 409—420.
152. Shen X., Feng J., Zhang X. A content-dependent Daltonization algorithm for colour vision deficiencies based on lightness and chroma information // IET Image Processing. — 2021. — T. 15, № 4. — C. 983—996.
154. Kingma D. P., Ba J. Adam: A method for stochastic optimization // arXiv preprint arXiv:1412.6980. — 2014.
155. Audet C, Dennis Jr J. E. Analysis of generalized pattern searches // SIAM Journal on optimization. — 2002. — T. 13, № 3. — C. 889—903.
Публикации автора по теме диссертации
В изданиях из списка ВАК РФ
58. Сидорчук Д, Волков В., Никоноров А. Сравнение метода нелинейной контраст-сохраняющей визуализации мультиспектральных изображений с известными алгоритмами деколоризации // Информационные процессы. — 2020. — Т. 20, № 1. — С. 41—54.
116. Сидорчук Д. С., Коноваленко И. А., Гладилин С. А., Максимов Ю. И. Оценка шумности каналов в задаче визуализации мультиспектральных изображений // Сенсорные системы. — 2016. — Т. 30, № 4. — С. 344—350.
153. Сидорчук Д. С., Нурмухаметов А. Л., Максимов П. В., Божкова В. П., Сарычева А. П., Павлова М. А., Казакова А. А., Грачева М. А., Николаев Д. П. Метод дальтонизации изображений, манипулирующий исключительно яркостью // Информационные процессы. — 2024. — Т. 24, № 3. — С. 203—224.
В изданиях, входящих в международную базу цитирования Scopus и
Web of Science
21. Sarycheva A., Grigoryev A., Sidorchuk D., Vladimirov G., Khaitovich P., Efimova O, Gavrilenko O, Stekolshchikova E., Nikolaev E. N., Kostyukevich Y. Structure-preserving and perceptually consistent approach for visualization of mass spectrometry imaging datasets // Analytical Chemistry. — 2020. — Т. 93, № 3. — С. 1677—1685.
110. Sidorchuk D. S. wEscore: quality assessment method of multichannel image visualization with regard to angular resolution // Computer Optics. — 2022. — Т. 46, № 1. — С. 113—120.
В сборниках трудов конференций
26. Sidorchuk D., Volkov V., Gladilin S. Perception-Oriented Fusion of Multi-Sensor Imagery: Visible, IR and SAR // ICMV 2017. Т. 10696. — Bellingham, Washington 98227-0010 USA : Society of Photo-Optical Instrumentation Engineers (SPIE), 04.2018. — С. 106961I1—106961I5. — DOI: 10.1117/12.2309770.
120. Sidorchuk D., Konovalenko I., Gladilin S., Maximov Y. Noise estimation for color visualization of multispectral images // ICRMV 2016. Т. 10253. — SPIE, 02.2017. — DOI: 10.1117/12.2266352.
Список рисунков
1.1 Спектральные характеристики стандартного колориметрического наблюдателя 1931 года; а) — исходные кривые сложения,
б) — соответствующий им базис XYZ. Иллюстрация взята из [4]. . . 12
1.2 Нормализованные кривые спектральной чувствительности палочек (Rh), колбочек (S, M, L) и меланопсиновых ганглиозных клеток (Mel). Цветные вертикальные полоски соответствуют некоторым стандартам синего, зеленого и красного цветов. Иллюстрация позаимствована из [17]........................... 14
1.3 Функции спектральной чувствительности: слева — стандартного колориметрического наблюдателя 1931 г., справа — фотоаппарата Canon EOS 600D. Иллюстрация взята из [4]............... 17
1.4 Функции чувствительности каналов мультиспектрального сенсора Multispectral Instrument и единая спектральная чувствительность гиперспектрального сенсора CMV4000.................. 17
1.5 Портрет сверхновой звезды. Рентгеновское излучение визуализировано синим и голубым цветами. Красный и розовый цвета соответствуют инфракрасному излучению. Зеленым цветом показано излучение серы, которая раскалена настолько сильно, что различима в видимом диапазоне. Информация и изображение
взяты из [25]................................. 18
1.6 Потеря контраста при включении серого режима на смартфоне 2022 года выпуска. (a) - исходное полноцветное изображение; (b) -изображение в сером режиме с потерей контраста между зданием и зеленой зоной................................ 22
1.7 Задача ВМИ актуальна для улучшения изображений при съемке мультиспектральным сенсором. (а) - трехканальное изображение в видимом диапазоне; (б) - четвертый инфракрасный канал; (в) -визуализация методом спектральной границы. Иллюстрация взята
из работы [39]................................ 23
1.8 Примеры затруднительных ситуаций, в которые могут попасть дихроматы в повседневной жизни..................... 24
1.9 Эффект неправильного выбора знаков псевдоградиента.
а) — исходное трехканальное изображение; б) — неправильная визуализация псевдоградиента с направлениями (указаны красными стрелками), выбранными методом интегральной интенсивности; в) — правильная визуализация псевдоградиента с направлениями (указаны красными стрелками), выбранными методом Карпенко.............................. 29
1.10 Влияние выбора функции ошибки при интегрировании псевдоградиентного векторного поля. а) - исходное трехканальное изображение; б) - результат контраст-сохраняющей визуализации с линейным критерием; в) - результат контраст-сохраняющей визуализации с критерием относительной ошибки. Иллюстрация
взята из работы [52]............................. 32
1.11 Значения контрастной чувствительности, полученные в результате опроса людей, и приближающие их непрерывные функции, предложенные Наденау для АФКЧ (слева) и ОФКЧ (справа). Иллюстрация взята из работы [65].................... 34
1.12 Схема метода полноцветной визуализации изображений масс-спектрометрии............................. 36
1.13 Визуализация масс-спектрометрического изображения среза мозжечка шимпанзе. a) - результат предложенного метода; (б,в) -результаты визуализации методом t-SNE с различным распределением результирующих данных по RGB каналам......36
1.14 Примеры визуализаций ДЗЗ с различными нарушениями натуральности. Наилучший с точки зрения натуральности вариант представлен в верхнем ряду крайним справа. Иллюстрация взята
из работы [47]................................ 37
2.1 Иллюстрация преимущества методов оценки ВМИ на основе пороговой классификации контраста................... 43
2.2 Иллюстрация различия в способности зрительной системы человека дифференцировать уровни ахроматического и хроматического стимулов. Слева - исходное цветное изображение, справа - полутоновая визуализация.................... 46
2.3 Потеря и сохранение спектральных границ при деколоризации изображений. (а,г) — исходные цветные изображения; (б,д) — визуализация с потерянным локальным контрастом; (в,е) — визуализация с сохраненным локальным контрастом.......... 47
2.4 Значения исходного и модифицированного Escore (dEscore) в зависимости от порога: (а,б) — для изображения цветового круга,
(в,г) — для изображения цветка...................... 48
2.5 Бинарное изображение исходно цветоконтрастных пикселей изображения цветового круга (т.е. пикселей множества Г^ в формуле 2.9) при разных значениях порога к. а) — исходное изображение; б) — при к = 1; в) — при к = 9.............. 49
2.6 Значения показателя dEscore, вычисленные для различных методов ВМИ и усредненные по изображениям набора COLOR250, при
разных значениях параметра к...................... 50
2.7 Примеры различий в сохранении и потере локального контраста: а) — фрагмент исходного цветного изображения; б) — фрагмент деколоризации с сохранением контраста соседних пикселей; в) — фрагмент деколоризации с сохранением локального контраста надпиксельного масштаба......................... 51
2.8 Фрагмент изображения 217.рп§ из набора С0ЮК250; потеря контраста в области озера над буквой "Р": а) — цветное изображение; б) — визуализация с потерей контраста, полученная методом Лу 2014 [80]; в) — визуализация с сохранением контраста, полученная методом контраст-сохраняющей ВМИ с нелинейным критерием Соколова [52].......................... 54
2.9 Изображение 8.рп§ из набора Cadik; потеря контраста в области зеленых сегментов кольца: а) — цветное изображение;
б) — визуализация с потерей контраста, полученная методом Лу 2012 [81]; в) — визуализация с сохранением контраста, полученная методом контраст-сохраняющей ВМИ с нелинейным критерием Соколова [52]................................ 55
2.10 Изображение 123.png из набора COLOR250; потеря контраста в областях рукавов и полосок на касках: а) — цветное изображение; б) — визуализация с потерей контраста, полученная методом Лу 2012 [81]; в) — визуализация с сохранением контраста, полученная методом Грюнланда [102]; г) — визуализация с потерей контраста, полученная методом контраст-сохраняющей ВМИ с нелинейным критерием Соколова [52].......................... 55
2.11 Изображение 27.png из набора C0L0R250; потеря контраста между радиальными полосами разных цветов: а) — цветное изображение; б) — визуализация с потерей контраста, полученная методом Лу 2014 [80]; в) — деколоризация с потерей контраста в канале CIE Y; г) — визуализация с сохранением контраста, полученная методом контраст-сохраняющей ВМИ с нелинейным критерием Соколова [52]. 56
2.12 Фрагмент изображения 196.png из набора C0L0R250; потеря контраста между лепестками цветка и травой на фоне: а) — цветное изображение; б) — визуализация с потерей контраста, полученная методом Грюнланда [102]; в) — визуализация с потерей контраста, полученная методом контраст-сохраняющей ВМИ с нелинейным критерием Соколова [52]; г) — визуализация с сохранением контраста, полученная методом Лу 2012 [81]....... 56
2.13 Фрагмент изображения 227.png из набора C0L0R250; потеря контраста между областями моря и суши: а) — цветное изображение; б) — визуализация с сохранением контраста, полученная методом Гуча [100]; в) — визуализация с сохранением контраста, полученная методом выделения канала CIE Y;
г) — визуализация с потерей контраста, полученная методом Смита [101]; д) — визуализация с сохранением контраста, полученная методом контраст-сохраняющей визуализации с нелинейным критерием Соколова [52]; e) - визуализация с сохранением контраста, полученная методом Грюнланда [102]............ 57
2.14 Значения усредненного коэффициента Кендалла для показателей Escore, dEscore и wEscore, вычисленные на подмножествах изображений с максимальным u-score. Порог контрастности к = 5. . 60
2.15 Потеря и сохранение спектральных границ на фотографическом изображении. а) — исходное цветное изображение; б) — результат метода Лу 2014; в) — результат метода сохранения локального контраста с нелинейным критерием Соколова.............. 61
2.16 Потеря и сохранение спектральных границ на синтетическом изображении. а) — исходное цветное изображение; б) — результат метода контраст-сохраняющей ВМИ с линейным критерием;
в) — результат метода контраст-сохраняющей ВМИ с нелинейным критерием Соколова............................ 61
3.1 Гиперспектральное изображение «AVIRIS Cuprit»: (а-в) — примеры каналов с разным уровнем зашумленности, г) — визуализация методом полноцветной контраст-сохраняющей ВМИ [52]........ 65
3.2 Двухканальное синтетическое изображение: а) — чистый канал,
б) — зашумленный канал.......................... 70
3.3 Примеры каналов гиперспектрального изображения «AVIRIS Indian Pines», для которых методом ССГС были получены следующие весовые коэффициенты, обратно пропорциональные оценкам дисперсии шума в канале: а) w = 0.8498; б) w = 0.9012; в) w = 0.9633. 72
3.4 Визуализация мультиспектральных изображений контраст-сохраняющим методом: (а, г) — без подавления шума; (б, д) — с учетом шума по методу MAF; (в, е) — с учетом шума по методу ССГС................................ 75
4.1 Симуляция восприятия четырех цветов протанопом в линейном цветовом пространстве RGB с помощью линейного алгоритма Вьено. Квадратиками обозначены исходные цвета, а кружками -результат симуляции............................ 83
4.2 Схема метода ахроматической контраст-сохраняющей дальтонизации. 88
4.3 Сравнение метрики CDLab и её модификации CDproLab. На рисунке представлено исходное изображение B и два искаженных изображения A и C............................. 89
4.4 Набор изображений, собранный для тестирования методов дальтонизации................................ 91
4.5 Обработка изображения 5 (см. рис. 4.4) для протанов. По столбцам: исходные изображения; изображения, полученные методом анизотропной дальтонизации; и изображения, полученные предложенным методом ахроматической дальтонизации. По
строкам: изображение и его симуляция.................. 92
4.6 Обработка изображения 7 (см. рис. 4.4) для протанов. По столбцам: исходные изображения; изображения, полученные методом анизотропной дальтонизации; и изображения, полученные предложенным методом ахроматической дальтонизации. По
строкам: изображение и его симуляция.................. 93
4.7 Обработка изображения 2 (см. рис. 4.4) для протанов. По столбцам: исходные изображения; изображения, полученные методом анизотропной дальтонизации; и изображения, полученные предложенным методом ахроматической дальтонизации. По
строкам: изображение и его симуляция.................. 93
4.8 Обработка изображения 9 (см. рис. 4.4) для дейтанов. По столбцам: исходные изображения, изображения; полученные методом анизотропной дальтонизации; и изображения, полученные предложенным методом ахроматической дальтонизации. По
строкам: изображение и его симуляция.................. 94
4.9 Результаты работы методов дальтонизации на изображениях 7 и 8, где испытуемые затруднились в выборе изображения, более
похожего на референсное..........................100
4.10 Примеры обработок для протанов, на которых, по мнению некоторых испытуемых, ахроматическая дальтонизация ухудшает контраст. По столбцам: исходные изображения, симуляции
исходного и обработанного предлагаемым методом...........101
5.1 Схема программного комплекса разработки и оценки качества методов ВМИ МУЭЛ.............................105
5.2 Снимки экрана во время работы программы субъективной оценки ВМИ. а) - вопрос про натуральность, б) - вопрос про контраст. . . . 108
Список таблиц
1 Результаты линейного критерия и нелинейного критерия Соколова в контраст-сохраняющей ВМИ по Escore, dEscore и wEscore, усредненные по всем изображениям набора COLOR250 и по
порогам k от 1 до 40............................ 62
2 Результаты линейного критерия и нелинейного критерия Соколова в контраст-сохраняющей ВМИ по Escore, dEscore и wEscore, усредненные по всем изображениям набора COLOR250 при пороге
к = 5..................................... 62
3 Результаты линейного критерия и нелинейного критерия Соколова в контраст-сохраняющей ВМИ по Escore, dEscore и wEscore, усредненные по синтетическим изображениям набора COLOR250 и
по порогам k от 1 до 40........................... 63
4 Результаты линейного критерия и нелинейного критерия Соколова в контраст-сохраняющей ВМИ по Escore, dEscore и wEscore, усредненные по синтетическим изображениям набора COLOR250
при пороге к = 5.............................. 63
5 Оценки относительной шумности каналов синтетического двухканального изображения, полученные методами MAF и ССГС. . 71
6 Матрица несоответствия классификаций каналов первого сильно зашумленного снимка, выполненных экспертом и выполненных методом ССГС................................ 73
7 Матрица несоответствия классификаций каналов второго сильно зашумленного снимка, выполненных экспертом и выполненных методом ССГС................................ 73
8 Матрица несоответствия классификаций каналов третьего сильно зашумленного снимка, выполненных экспертом и выполненных методом ССГС................................ 73
9 Матрица несоответствия классификаций каналов первого сильно зашумленного снимка, выполненных экспертом и выполненных методом MAF................................ 74
10 Матрица несоответствия классификаций каналов второго сильно зашумленного снимка, выполненных экспертом и выполненных методом MAF................................ 74
11 Матрица несоответствия классификаций каналов третьего сильно зашумленного снимка, выполненных экспертом и выполненных методом MAF................................ 74
12 Результаты расчета метрики CD^ab для метода анизотропной дальтонизации и предложенного метода ахроматической дальтонизации на собранном наборе данных (см. рис. 4.4). Жирным шрифтом отмечается, какой вариант симуляции лучше сохраняет натуральность по метрике................... 95
13 Результаты расчета метрики CDproLab для метода анизотропной дальтонизации и предложенного метода ахроматической дальтонизации на собранном наборе данных (см. рис. 4.4). Жирным шрифтом отмечается, какой вариант симуляции лучше сохраняет натуральность по метрике................... 95
14 Результаты расчета RMS на дейтан-симуляциях изображений, полученных методом анизотропной дальтонизации и предложенным ахроматическим методом.......................... 96
15 Результаты расчета RMS на протан-симуляциях изображений, полученных методом анизотропной дальтонизации и предложенным ахроматическим методом.......................... 97
16 Результаты опроса про натуральность (какая из двух картинок больше похожа на референс?). В каждой ячейке приводится число ответов, просуммированное по всем изображениями и по всем испытуемым каждого типа.........................101
17 Результаты опроса про контраст (оцените различимость объектов по сравнению с референсом, не обращая внимания на цвета). В каждой ячейке приводится число ответов, просуммированное по
всем изображениям и по всем испытуемым каждого типа ДЦЗ. ... 102
Приложение А
Акты о внедрении результатов диссертационного исследования
ИНН 7731315489 КПП 631201001 ОГРН 1167746437990 ОКПО 2337363 ОКВЭД 72.19.2, 72.19.3 Тел./факс: +7 (846) 2702385 artnjko@gmail.com
АКТ О ВНЕДРЕНИИ
результатов диссертационного исследования Д.С. Сидорчука «Методы визуализации многоканальных изображений, согласованные с механизмами восприятия цветовых контрастов у человека», представленного на соискание учёной степени кандидата технических наук по специальности 1.2.2 «Математическое моделирование,
Разработанный Д.С. Сидорчуком в рамках диссертационного исследования метод контраст-сохраняющей визуализации многоканальных изображений внедрён в ООО «Локус» и используется в рамках научно-исследовательской и опытно-конструкторской работы по теме «Разработка открытой платформы сбора и анализа гиперспектральных изображений для решения прикладных задач цифровой экономики» (договор № №1ГКод-ЦТ-С17-05/81633 от 13 декабря 2022 г.).
Внедрённый метод обеспечил функциональность двух входящих в состав платформы программных модулей:
1) модуля автоматизированного формирования обучающих наборов данных с использованием гиперспектральных изображений и данных других источников;
2) модуля применения классификаторов гиперспектральных изображений совместно с данными различных модальностей в различных отраслях цифровой экономики, в частности, умном сельском хозяйстве, экологическом мониторинге, персональной медицине.
численные методы и комплексы программ»
Генеральный директор, д.т.н.
Никоноров А.В.
Обратите внимание, представленные выше научные тексты размещены для ознакомления и получены посредством распознавания оригинальных текстов диссертаций (OCR). В связи с чем, в них могут содержаться ошибки, связанные с несовершенством алгоритмов распознавания. В PDF файлах диссертаций и авторефератов, которые мы доставляем, подобных ошибок нет.