Метод естественной системной классификации тема диссертации и автореферата по ВАК РФ 05.13.01, кандидат наук Туральчук Константин Анатольевич

  • Туральчук Константин Анатольевич
  • кандидат науккандидат наук
  • 2020, ФГАОУ ВО «Санкт-Петербургский государственный электротехнический университет «ЛЭТИ» им. В.И. Ульянова (Ленина)»
  • Специальность ВАК РФ05.13.01
  • Количество страниц 132
Туральчук Константин Анатольевич. Метод естественной системной классификации: дис. кандидат наук: 05.13.01 - Системный анализ, управление и обработка информации (по отраслям). ФГАОУ ВО «Санкт-Петербургский государственный электротехнический университет «ЛЭТИ» им. В.И. Ульянова (Ленина)». 2020. 132 с.

Оглавление диссертации кандидат наук Туральчук Константин Анатольевич

Введение

Глава 1. Проблематика естественной классификации

1.1 Введение

1.2 Методы машинного обучения и анализа данных

1.3 Исследуемые системы данных

1.4 Ограничения методов ML & DM

1.5 Вызовы естественной классификации

1.6 Заключение

Глава 2. Онтологическое знание физики открытых систем

2.1 Введение

2.2 Физика открытых систем

2.3 Аналитическое ядро ФОС

2.4 Заключение

Глава 3. Метод и алгоритмы естественной системной

классификации

3.1 Введение

3.2 Концепция естественной системной классификации

3.3 Модель решения

3.4 Метод ECK

3.5 Ключевые объекты метода

3.6 Функциональность метода

3.7 Решатель ECK

3.8 Заключение

Глава 4. Применение метода ECK

4.1 Введение

4.2 Токсические эффекты острых отравлений фосфорорганическими соединениями

Стр.

4.3 Идентификация бракованных изделий на полупроводниковом производстве

4.4 Классификация рукописных цифр

4.5 Классификация лейкемии на геномных данных

4.6 Заключение

Заключение

Список сокращений и условных обозначений

Список литературы

Список рисунков

Список таблиц

Рекомендованный список диссертаций по специальности «Системный анализ, управление и обработка информации (по отраслям)», 05.13.01 шифр ВАК

Введение диссертации (часть автореферата) на тему «Метод естественной системной классификации»

Введение

Научная классификация преодолевает разнообразие объектов реального мира, установленное самой природой и проявленное через множественность, взаимообусловленность и различие свойств, текучесть и многовидность изменчивости наблюдаемых единичных форм. Главная гносеологическая проблема классификации состоит в ответе на вопрос: является ли классификация только действительностью человеческих знаний или она есть действительность самой природы? [1]

В классификации доминируют два подхода. Первый подход формально-рациональный. Он порождает искусственные классификационные системы, которые не входят вглубь онтологической проблемы объекта исследования. Второй подход предметно-содержательный. Этот подход нацелен на построение естественных классификационных систем на основании имеющихся концепту алыю-теоретических представлений. Искусственные классификации имеют описательно-распознавательный характер, основаны на применении формально выбранных признаков или признаков, удобных для использования. В сложных предметных областях (биология, медицина, экология, киберфизика, техносфера и др.) искусственные классификации встречают большие трудности, вызванные полиморфизмом и гетерогенностью классифицируемых объектов.

Методы искусственной классификации широко востребованы и применяются в самых разных предметных областях знания. В настоящее время задачи искусственной классификации стали предметом Data Mining и машинного обучения (Machine Learning).

Естественные классификации должны отвечать требованиям объективности при передаче смыслового содержания классов, обеспечивать качество общих утверждений о каждом классе, обладать способностью предсказания свойств объектов из конкретного класса. Построение естественных классификаций связано с разработкой онтологии предметной области, в рамках которой создается классификационная система. Создание таких онтологий само по себе является сложной научной проблемой.

Актуальность работы. Идея естественной классификации уже несколько столетий направляет действия классификаторов. Однако все еще нет

операционального определения, которое можно было бы положить в основу создания воспроизводимого метода рациональной естественной классификации. Подход естественной классификации, применяемый в фундаментальных дисциплинах, состоит в открытии (реконструкции) естественной системы.

Проблематике естественной классификации уделяли внимание исследователи разных предметных областей: Мейен С. В., Шрейедер Ю. А., Кожара В. Л., Розова С. С., Субботин А. Л., Любищев А. А., Любарский Г. К)., Покровский М. П., Павлинов И. Я., Витяев Е. Е., Соукал Р., Спит П., Парочиа Д., Невил П.

Сама проблема естественной классификации возникла в биологии как проблема реальности классов и реальности признаков классов. Биологическая наука предложила и развивает подход к решению данной проблемы, в основе которого лежат понятия онтологии предметной области, интенсионала и экс-тенсионала классов, мерона и таксона. В рамках этого подхода пока остаются без ответа вопросы определения меронов (естественных признаков класса) и построения воспроизводимого метода получения онтологии предметной области.

Мерой как естественный признак класса должен нести в себе смысл класса и номинировать класс. Мерой можно рассматривать как понятие, с которым связаны номинативная и когнитивная функции языка. Эти функции являются объектами исследования лексикологии, изучающей значения слов, инварианты и языковые варианты слов, словосочетания. Большой вклад в исследования на этом направлении внесли Апресян Ю. Д., Арутюнова Н. Д., Демьянков В. 3., Щур Г. С., Уфимцева А. А. Для того, чтобы воспользоваться методами лексикологии для смысловыражения слов и словосочетаний языка, необходимо знать сами смыслы этих слов, которые возникают и оформляются в языках других наук. В этих науках смыслы их базовых понятий опираются на онтологию соответствующей предметной области знания.

Ключевой проблемой естественной классификации является познание онтологии предметной области. Для построения единого воспроизводимого метода естественной классификации, работающего в разных предметных областях знания, нужен научный метод, способный раскрывать онтологию системы как «другого измерения реальности». Такой метод создан в рамках физики открытых систем (ФОС) научной группой Фомина Б. Ф. и Качановой Т. Л. Этот метод обеспечивает получение полного завершенного научно-достоверного онтологического знания об открытых природных, общественных, техногенных и

сложных технических системах по их эмпирическим описаниям большими многомерными массивами данных.

С появлением и развитием ФОС актуальная проблема естественного классифицирования получила новую перспективу решения. Для реализации этой перспективы требуется предложить новую концепцию рационального классифицирования на базе научно достоверных онтологических оснований, выражающих основные закономерности и существенные свойства классифицируемых объектов в разных предметных областях.

Целью диссертации стала разработка научного метода естественной системной классификации (ECK) на основе знания онтологии системы.

Для достижения поставленной цели в диссертации решены следующие задачи:

1. Обосновать актуальность разработки метода ECK для сложных предметных областей на основе знания онтологии систем.

2. Выполнить анализ ценности знания онтологии системы, полученного ФОС, и оценить перспективы его использования для решения задачи ECK.

3. Разработать концепцию и модель естественного классифицирования на основе знания онтологии систем.

4. Разработать метод ECK, способный выявлять и оформлять системно-обусловленные естественные признаки классов в условиях гетерогенности классифицируемых объектов, осуществлять логическую реконструкцию интенсионалов классов, создавать когнитивные репрезентации классов.

5. Разработать программный комплекс, реализующий метод ECK, как элемент конструктивного компонента технологической платформы ФОС.

6. Провести апробацию метода ECK с целью аттестации его воспроизводимости и возможностей эффективного использования в разных предметных областях.

Объект исследования. Естественное классифицирование в сложных предметных областях.

Предмет исследования. Выявление естественных признаков и естественных классов на базе онтологического знания о системах.

Научная новизна:

1. Впервые установлена возможность применить эталоны состояний собственных качеств системы, открытые ФОС, как системные гомологи естественной классификации, способные определять и различать классы в сложных предметных областях.

2. Впервые предложена концепция ECK, основанная на экспликации знания общей онтологии системы в интенсионалы классов, обеспечившая разработку единой системы базовых понятий и отношений между понятиями модели метода ECK.

3. Впервые создан метод ECK, отличающийся от существующих методов классификации: способностью выявлять естественные системно-обусловленные признаки классов; способностью строить на основе этих признаков иерархические структуры моделей классов (интенсионалы классов); способностью получать репрезентанты (прототипы) классов и раскрывать морфологию каждого класса.

Практическая значимость:

1. Метод ECK создан для применения к природным, антропогенным, ки-бер-физическим и техническим системам, исходно заданным большими массивами многосортных, полимодальных, неоднородных эмпирических данных.

2. Разработаны алгоритмы вычисления формальных объектов, атрибутов объектов и отношений между объектами метода ECK. Сложность построенных алгоритмов зависит от степени гетерогенности классификационного поля (КП) и от правильности поставленных экспертами классов. Рост сложности ограничен гиперболическим законом Ципфа-Мандельброта для вычисляемых коррелированных объектов.

3. Программный комплекс, реализующий метод ECK, включен в состав конструктивного компонента технологической платформы ФОС, готов к практическому применению для решения задачи естественной системной классификации.

Методология и методы исследования. Методологические основания, метод и информационные технологии ФОС, таксономия, мерономия, теория множеств, логика, теория вероятностей и математическая статистика, лексикология, теория графов, квалиметрия.

Основные положения, выносимые на защиту:

1. Онтологическое знание о системах, представляющих классификационный универсум, имплицитно содержит знание, на основе которого выявляются системные гомологи естественных признаков и естественные классы онтологически единых объектов.

2. Концепция и модель системы классифицирования, основанные на интенсиональном и экстенсиональном подходах, обеспечивающие экспликацию знания системной онтологии классификационного поля (далее КП) в архетипические и таксономические компоненты классов.

3. Метод ECK как конструктивное воплощение модели системы классифицирования, обеспечивший преобразование понятий модели в формальные конструкты, а отношения между понятиями в вычислительные процедуры построения семантических и денотативных компонентов классов.

Достоверность:

— достоверность научных оснований концепции и модели системы естественного классифицирования определяют: научный метод ФОС, обеспечивающий получение знания об общей онтологии системы; семиотический треугольник Г. Фреге, задающий связь классов КП с их сигнификатом и денотатом; мерономический и таксономический подходы, положенные в основу разработанного формального аппарата классифицирования;

— достоверность результатов предложенного метода определяют: ква-лиметрические оценки ценности онтологического знания о КП как системе; критерии оценивания качества полученных интенсионалов и экстенсионалов классов (ранги признаков, ранги формальных дескрипторов, компактность архетипа и др.);

— достоверность вычислительных процедур метода ECK определяет корректное применение методов математической статистики, теории множеств, теории графов;

— достоверность положений и выводов диссертации определяют успешная верификация результатов применения метода к реальным данным в практических решениях классификационных задач из разных сложных предметных областей, а также сравнения с результатами, полученными методами искусственной классификации.

Апробация работы. Основные положения и результаты диссертации апробированы на научных симпозиумах, семинарах и конференциях: на всероссийской научной конференции по проблемам управления в технических системах (ПУТС-2015); на IX конференции «Информационные технологии в управлении (ИТУ 2016)»; на научном семинаре «ИКТ», СП PI PI РАН, (11 ноября 2016 г.); на XXI международной конференции по мягким вычислениям и измерениям (SCM-2018); на XIII международном симпозиуме "Intelligent Systems 2018"(INTELS-18).

Личный вклад. На постановочном этапе создания метода ECK: постановка и проведение вычислительных экспериментов, в результате которых получено обоснование имплицитной связи онтологического знания о системе и онтологии классов. В экспериментальных исследованиях: анализ достоинств и недостатков методов искусственной классификации при их применении в сложных предметных областях, обоснование актуальности разработки воспроизводимого метода ECK. На этапе разработки модели классифицирования: выявление системных гомологов и их экспликация в элементы онтологического знания о классах. В разработке метода ECK: построение конструктивных форм понятий модели классифицирования и алгоритмов их вычислений. На этапе верификации метода ECK: подбор задач классификации для наилучшей аттестации метода, выполнение вычислений, оценивание результатов.

Публикации. Основные результаты по теме диссертации изложены в 9 печатных изданиях, 4 из которых изданы в журналах, рекомендованных ВАК, 2 в научно-технической базе SCOPUS, 3 в материалах конференций.

Объем и структура работы. Диссертация состоит из введения, четырёх глав и заключения.

Полный объём диссертации составляет 132 страницы, включая 43 рисунка и 54 таблицы. Список литературы содержит 131 наименование.

Глава 1. Проблематика естественной классификации

1.1 Введение

Классификация играет важную роль в исследовательских и прикладных проектах.

Под классификацией понимается система классов объектов предметной области, процедура построения этой системы (классифицирование), процедура отнесения конкретного объекта к одному из классов такой системы (диагностирование, распознавание) [1 3].

Для решения задач классификации в разных областях знания разработаны и широко применяются методы искусственной классификации. В настоящее время искусственная классификация входит в круг проблем машинного обучения (Machine Learning) и Data Mining (далее ML & DM). Ключевая проблема классификации обоснование реальности признаков классов и самих классов [4]. В основе искусственной классификации находятся внешние признаки, имеющие значение с практической точки зрения для целей проводимого исследования, а классы определяются экспертами предметной области. Искусственные классификации являются описательными, аппроксимативными, экстенсиональными [5].

Для решения ключевой проблемы классификации требуется разработка концепции естественной классификации. Естественная классификация находит существенные признаки, определяемые самой природой изучаемых объектов и явлений [6]. Естественные классификации рассматриваются как сущностные, объяснительные, когнитивно-содержательные, интенсиональные [7]. В противоположность искусственному (инструменталистскому) подходу к классификации подход естественной классификации, применяемый в фундаментальных дисциплинах, состоит в открытии (реконструкции) естественной системы [8]. Концепция естественной классификации возникла и получила развитие в естественнонаучных областях знания, но до сих пор не стала научным воспроизводимым методом решения практических задач [9]. Основная проблема естественной классификации состоит в познании онтологии предметной области и онтологии классов.

и

BZs Zs

диссертации рассматривается метод естественной системной классификации (ECK), который является конструктивным воплощением идей естественной классификации, базируется на онтологическом знании о сложной системе, которое автоматически генерируется по её эмпирическому описанию. Далее в этой главе рассматриваются методы искусственной классификации и основные задачи естественной классификации, которые остаются нерешенными в рамках этих методов.

1.2 Методы машинного обучения и анализа данных

Основным направлением развития информационных и когнитивных технологий в настоящее время становится наука о данных [10].

Для выявления эмпирических закономерностей в больших массивах данных наука о данных использует методы машинного обучения [11 15] и Data Mining [16; 17] (далее ML & DM). Методы ML & DM являются аппроксимаци-онными; рассматривают исследуемую систему как черный ящик с неизвестной внутренней природой и выполняют настройку той или иной модели таким образом, чтобы обеспечить наилучшее приближение поведения модели к известной обучающей выборке [18].

Методы ML & DM главным образом нацелены на решение прогностической задачи (распознавание) построение решающей функции в аналитической или алгоритмической форме, которая позволяет отнести объект к тому или иному классу, используя значения показателей объекта. Качество решения задачи распознавания оценивается по соответствию прогноза заранее известным классам объектов, которые воспринимаются как истинные.

Главными составляющими машинного обучения являются: вероятностные подходы (байесовские сети), нейросетевые структуры (глубокое обучение), логические методы, алгоритмы сравнения объектов.

Байесовская классификация

Байесовская классификация основана на формуле Т. Байеса, позволяющей вычислять условные вероятности принадлежности объекта к тому или иному классу по априорным оценкам встречаемости признаков объекта в

каждом классе [19; 20]. Наиболее распространенной моделью байесовской классификации является так называемый наивный байесовский классификатор (Naive Bayes), в котором вычисление прогноза упрощается за счет предположения о независимости признаков. Более сложные архитектуры байесовских сетей позволяют учитывать зависимость признаков [21 23]: адаптивные байесовские сети [24], tree-augmented naïve bayes [25], general bayes network [26]. Но такие модели более требовательны к исходному эмпирическому описанию.

Достоинствами баейсовских подходов являются: учёт влияния каждого показателя по априорной вероятности появления для класса; оценка важности показателей в отнесении объекта к каждому классу; вычисление условных вероятностей принадлежности объекта к каждому классу.

К недостаткам можно отнести: предположение о независимости признаков объекта в случае алгоритма Naive Bayes; зависимость от представительности обучающей выборки; требуется преобразование непрерывных показателей к дискретной шкале.

Глубокое обучение

Глубокое обучение включает алгоритмы, использующие сложные структуры искусственных нейронных сетей с большим числом слоев: сверточные нейронные сети, реккурентные сети, генеративно-соревновательные сети, глубокие вероятностные сети и др. [27 30].

В основе искусственных нейронных сетей (ИНС) лежит представление модели в виде множества связанных элементов ("нейронов"). Алгоритмы обучения ИНС в случае задачи классификации осуществляют последовательную подстройку весов связей для приближения к известному ответу (классу).

Алгоритмы глубоких нейронных сетей показали высокую эффективность в некоторых областях, преимущественно в области распознавания изображений [31]. Несмотря на перспективы применения глубокого обучения, они, как и многие другие алгоритмы машинного обучения, следуют подходу «черного ящика» и не предоставляют содержательной базы для понимания внутренних закономерностей системы. Возникающие подходы к интерпретации и визуализации параметров нейронных сетей, пока не предоставляют единый универсальный метод понимания и объяснения классификационного поля [32 34]. Другими

ограничениями методов ИНС являются: неформализованная процедура выбора структуры и параметров сети; большие объемы выборок (тысячи объектов для каждого класса); повышенные требования к вычислительным ресурсам.

Методы, основанные на сравнении объектов

Алгоритм к-ближайших соседей Классическим алгоритмом классификации на основе сравнения объектов является алгоритм к-ближайших соседей (кММ, к-пеаген1, neighbours). Алгоритм кММ заключается в поиске объектов обучающего множества, наиболее близких по комплексу признаков к новому объекту. Вывод о классе объекта осуществляется по классам отобранных ближайших объектов. Близость объектов оценивается с помощью той или иной меры расстояния (метрика Махаланобиса, расстояние Евклида, Манхэттана и

ДР-)-

Достоинством алгоритма является его простота для реализации и понимания. Недостатки: в методе не осуществляется построение модели как обобщающей структуры данных. Алгоритм вычисления класса объекта неотделим от полного множества исходных данных. Выбор метрики расстояния является серьезной проблемой. Типовые метрики расстояния не учитывают различную важность показателей и осуществляют усреднение по всем имеющимся показателям.

Метод конкурентного сходства. Метод классификации ЕШ8-8к)1р основан на конкурентной мере близости объектов РпБ [35 38]. Эта мера учитывает сходство объекта с определенным классом и сходство с конкурирующими классами. В методе вводится понятие эталонного объекта («столп»). Найденные столпы формируют решающие правила, которые можно использовать для классификации новых объектов.

Как и в методе к-ближайших соседей, метод ЕШБ-Бийр оперирует метрикой расстояния, выбор которой является сложной задачей в случае разнотипных показателей, обладающих разной неизвестной смысловой нагрузкой.

Логические методы

Логические методы классификации осуществляют поиск закономерностей в виде классификационных правил. Каждое правило представляется комбинацией признаков (конъюнкцией предикатов) и связано преимущественно или исключительно с одним известным классом.

К логическим методам относят алгоритмы на основе деревьев решений, алгоритмы анализа характерных комбинаций признаков (apriori, cn2, eclat, fpg, CPAR [39 41]), алгоритмы анализа формальных понятий.

Алгоритмы, па основе деревьев. Модель классификации представляется в виде древовидной структуры (алгоритмы CART) или комбинаций таких структур (алгоритмы AdaBoost, случайного леса). Каждый путь в дереве представляет собой комбинацию условных конструкций вида pi = с, pi < с ил и pi £ [ci, С2], гдepi - показатель, с, с1? с2 значения показателя. Несмотря на «наглядность» получаемой структуры в виде дерева условий, алгоритмы построения отдельных деревьев характеризуются серьезными недостатками: эффект маскирования значимости показателей, плохая обработка «зависимых» показателей.

Метод случайного леса (Random Forest) строит множество простых классификаторов (деревьев решений) на случайных подвыборках из исходного обучающего множества и снимает некоторые проблемы алгоритмов построения отдельных деревьев решений [42; 43]. Алгоритм Random Forest характеризуется большей устойчивостью к аномалиям; предоставляет возможность оценки важности показателей по участию в структуре классификационной модели [44]. Но существенным ограничением алгоритмов RandomForest, Deep Forest и других ансамблевых методов является неинтерпретируемость модели в виде сотни-тысячи деревьев [45].

Анализ формальных понятий (АФП). Данный подход предполагает анализ данных на основе теории решеток [46 48]. Алгоритмы АФП генерируют комбинации признаков (называемые «формальными понятиями»), характерные для определенных групп объектов.

Формальные понятия представляет собой пару «объем-содержание». Объем формального понятия представляют собой множество объектов; содержание формального понятия множество общих признаков объектов.

Формальные понятия упорядочиваются по вложению объема и образуют иерархию (решетку формальных понятий).

Метод семантического вероятностного вы,вода. Этот метод предназначен для нахождения «максимально специфических» и «максимально вероятностных» закономерностей в данных [5].

Вероятностные закономерности имеют вид комбинаций предикатов: Р1 & Р2 & .. & Рт => Ро 5 где каждый Pi - предикат описывает наличие или отсутствие i-признака у объекта.

Формирование вероятностных закономерностей осуществляется путем направленного перебора признаков (семантический вероятностный вывод) [49]. В результате работы алгоритма формируется «дерево семантического вывода».

При поиске вероятностных зависимостей в алгоритме учитывается статистическая значимость предикатов (точный метод Фишера и коэффициент Юла). Это позволяет сократить пространство перебора возможных комбинаций признаков и обеспечить формирование статистических значимых комбинаций.

Следует отметить внимание авторов метода семантического вероятностного вывода к проблематике естественной классификации и стремление решить ее в рамках логико-вероятностного подхода [50 54].

Главным достоинством логических методов является представление классификационной модели в виде множества правил (организованного в виде дерева, решетки или перечня правил). Каждое правило выделяет признаковое подпространство и соотносится с определенной группой объектов. Каждое правило (комбинация признаков) обладает «простой» и наглядной интерпретацией.

Одной из основных проблем нахождения логических правил является вычислительная сложность [55]. Поиск логических конструкций сталкивается с комбинаторной проблемой. Число классификационных правил растет экспоненциально в зависимости от числа показателей и делает невозможной задачу выявления всех логических комбинаций для систем данных с большим числом показателей (более 100). Эвристические подходы, ограничивающие перебор с помощью тех или иных допущений (например, алгоритмы поиска классификационных правил cn2, foil [40; 41]), не гарантируют выявление наилучших правил, устойчивых для новых объектов. Короткие правила, содержащие 2 -3 показателя, как правило, являются неустойчивыми могут быть характерны для конкретной выборки, но не применимы для новых объектов.

Вычислительная сложность алгоритмов возрастает при обработке количественных показателей. Многие алгоритмы (например, в области АФП) работают с бинарными матрицами, где каждый показатель принимает два значения (наличие и отсутствие признака). Модифицированные алгоритмы выполняют дискретизацию интервальных показателей (разделение на несколько интервалов области значений показателя) в опоре на экспертные представления или статистические характеристики. В этом случае возникает проблема обоснованности выбора границ интервалов.

Второй проблемой логических методов является отделение «важных» правил от «случайных» комбинаций показателей [56, с. 54]. Например, алгоритмы АФП формируют решетки, включающие десятки и сотни тысяч понятий. Вопросы «естественности» построенных комбинаций, их устойчивости к новым объектам, остаются нерешенными. Формирование логических правил (или «формальных понятий» в АФП) осуществляется только в опоре на численные особенности в таблице данных и поэтому можно говорить о выявлении эмпирических зависимостей, а не о раскрытии внутренних закономерностей системы.

Похожие диссертационные работы по специальности «Системный анализ, управление и обработка информации (по отраслям)», 05.13.01 шифр ВАК

Список литературы диссертационного исследования кандидат наук Туральчук Константин Анатольевич, 2020 год

Список литературы

1. Розова, С. С. Научная классификация и ее виды / С. С. Розова // Вопросы философии. 1964. Вып. 8.

2. Покровский, М. П. О функциях классификации / М. П. Покровский // Труды ИГГ УрО РАН. Т. 160. 2013. С. 344 352.

3. Орлов, А. И. О развитии математических методов теории классификации / А. 14. Орлов // Заводская лаборатория. Диагностика материалов. М, 2009. Т. 75, № 7. С. 51 63.

4. Розова, С. С. Классификационная проблема в современной науке / С. С. Розова. Новосибирск : Наука, 1986. 224 с.

5. Витяев, Е. Е. Извлечение знаний из данных. Компьютерное познание. Модели когнитивных процессов. / Е. Е. Витяев. Новосибирск : НГУ, 2006. 293 с.

6. Кожара, В. Л. Феномен естественной классификации / В. Л. Кожара // Новые идеи в научной классификации. Т. 5. Екатеринбург : УрО РАН, 2010. С. 117 143.

7. Мейен, С. Методологические аспекты теории классификации / С. Мейен, Ю. А. Шрейдер // Вопросы философии. 1976. Вып. 12. С. 67 79.

8. Mayr, Е. Principles of zoological systematica / E. Mayr. New York : McGraw-Hill, 1969.

9. Покровский, M. П. Введение в классиологию / M. П. Покровский. Екатеринбург : 14 Г Г УрО РАН, 2014. 484 с.

10. Towards Data Science. URL: https://towardsdatascience.com/.

11. Bishop, С. M. Pattern recognition and machine learning / С. M. Bishop. Springer, 2006. 738 p.

12. Mitch11. T. Machine Learning / T. Mitchel. McGrow Hill, 1997. 432 p.

13. Burges, C. J. Dimension Reduction: A Guided Tour / C. J. Burges // Foundations and Trends in Machine Learning. 2010. Vol. 2. P. 275 365.

14. Murphy, К. P. Machine Learning: A Probabilistic Perspective / K. P. Murphy. Massachusetts Institute of Technology, 2012. 1067 p.

15. Witten, I. H. Practical Machine Learning Tools and Techniques / I. H. Witten, E. Frank, M. A. Morgan Kaufmann, 2011. 664 p.

16. Han, J. Data Mining Concepts and Techniques / J. Han, M. Kamber, J. Pei. Morgan Kaufmann, 2012. 744 p.

17. Барсегян, А. А. Технологии анализа данных: Data Mining, Visual Mining, Text Mining, OLAP / А. А. Барсегян, M. С. Куприянов, PL PL Холод и др. БХВ-Петербург, 2006. 450 с.

18. Benitez, J. M. Are artificial neural networks black boxes? / J. M. Benitez, J. L. Castro, I. Reuena // IEEE Transactions on neural networks. 1997. Vol. 8. P. 1156 1164.

19. Friedman, N. Bayesian Network Classifiers / N. Friedman, D. Geiger, M. Goldszmidt // Machine Learning. 1997. Vol. 29. P. 131 161.

20. Niedermayer, D. An introduction to Bayesian Networks and Their Contemporary Applications / D. Niedermayer // Innovations in Bayesian Networks. Studies in Computational Intelligence. Springer, 2008. Vol. 156. P. 275 365.

21. Pearl, J. Probabilistic Reasoning in Intelligent Systems: Networks of Plausible Inference / J. Pearl. San Francisco : Morgan Kaufmann Publishers Inc., 1988.

22. Pearl, J. Causality: Models, Reasoning, and Inference / J. Pearl. New York : Cambridge University Press, 2000.

23. Тулупъев, А. Л. Основы теории байесовский сетей / A. il. Тулупьев, С. Pl. Николенко, А. В. Сироткин. СПбГУ, 2019. 399 с.

24. Yarmus, J. ABN: A Fast, Greedy Bayesian Network Classifier / J. Yarmus. 2003.

25. Keogh, E. Learning the structure of augmented Bayesian classifiers / E. Keogh, M. Pazzani // International Journal on Artificial Intelligence Tools. 2002.

Vol. 11. P. 587 601.

26. Cheng, G. Comparing Bayesian Networks Classifiers / G. Cheng, R. Greiner // Proceeding of the Fifteenth Conference on Uncertainty in Artificial Intelligence. San Francisco : Morgan Kaufmann Publishers Inc., 1999.

27. Goodfellow, I. Deep Learning / I. Goodfellow, Y. Bengio, A. Courville. MIT Press, 2016. 652 p. http://www.deeplearningbook.org.

28. Bengio, Y. Learning Deep Architectures for AI / Y. Bengio // Foundations and Trends in Machine Learning. 2009. Vol. 2. P. 1-127.

29. Hinton, G. E. A fast learning algorithm for deep belief nets / G. E. Hinton, S. Osindero, Y. Teh // Neural Computation. 2006. Vol. 18. P. 1527 1554.

30. Николенко, С. И. Глубокое обучение. Погружение в мир нейронных сетей / С. И. Николенко, Е. В. Архангельская, А. Кадурин. Питер, 2018. 480 с.

31. Krizhevsky, A. Imagenet classification with deep convolutional neural networks / A. Krizhevsky, I. Sutskever, G. Hinton // Advances in neural information processing systems. 2012. P. 1097 1105.

32. Hinton, G. Distilling the knowledge in a neural network / G. Hinton, O. Vinyals, J. Dean. 2015.

33. Bastani, 0. Interpretability via Model Extraction / O. Bastani, C. Kim, H. Bastani. 2017.

34. К oh, P. Understanding Black-box Predictions via Influence Functions / P. Koh, P. Liang. 2017.

35. Загоруйко, H. Г. Количественная мера компактности и сходства в конкурентном пространстве / Н. Г. Загоруйко, 14. А. Борисова, В. В. Дю-банов и др. // Сибирский журнал индустриальной математики. 2010.

Т. 13, вып. 1. С. 59 71.

36. Zagoruiko, N. G. Methods of recognition based on the function of rival similarity / N. G. Zagoruiko, I. A. Borisova // Pattern Recognition Image Analisys. 2008. Vol. 18. P. 1 6.

37. Загоруйко, Н. Г. Конкурентное сходство как универсальный базовый инструмент когнитивного анализа данных / Н. Г. Загоруйко, И. А. Борисова, В. В. Дюбанов и др. // Онтология проектирования. 2015.

Т. 5, вып. 1.

38. Загоруйко, Н. Г. Обучение распознаванию без переобучения / Н. Г. Загоруйко, И. А. Борисова, В. В. Дюбанов и др. // Машинное обучение и анализ данных. 2014. Т. 1, вып. 7. С. 891 901.

39. Padillo, F. Evaluating associative classification algorithms for Big Data / F. Padillo, J. M. Luna, S. Ventura // Big Data Analytics. 2019. Vol. 4.

40. Clark, P. The CN2 Induction Algorithm / P. Clark, T. Niblett // Machine Learning. 1989. Vol. 3 (4). P.261 283.

41. Yin, X. CPAR: Classification Based on Predictive Association Rules / X. Yin, J. Han // 3rd SIAM International Conference on Data Mining(SDM03). 2003. Vol. 3. P.331 335.

42. Breiman, L. Random Forests / L. Breiman // Machine Learning. 2001. Vol. 45. P. 5 32.

43. Breiman, L. Statistical Modeling: The Two Cultures / L. Breiman // Statistical Sciences. 2001. Vol. 16. P. 5-32.

44. Kimes, R. Quantifying the effects of correlated covariates on variable importance estimates from random forests. PhD Thesis / R. Kimes. 2006.

45. Zhou, Z.-H. Deep forest: Towards an alternative to deep neural networks / Z.-H. Zhou, J. Feng. 2017.

46. Gratzer, G. General Lattice Theory / G. Gratzer. 2003.

47. Ganter, B. Formal Concept Analysis: Methods and Applications in Computer Science / B. Ganter. Dresden, Germany, 2003.

48. Ganter, B. Formal Concept Analysis: Foundations and Applications / B. Ganter, G. Stumme, R. Wille. Springer, 2005.

49. Витяев, E. E. Семантический вероятностный вывод предсказаний / Е. Е. Витяев // Известия Иркутского государственного университета. Серия "Математика". Новосибирск, 2017. Т. 21. С. 33 50.

50. Витяев, E. Е. Естественная классификация и систематика как законы природы / E. Е. Витяев, Н. С. Морозова, А. С. Сутягин и др. // Вычислительные системы. Новосибирск, 2005. Т. 174. С. 80 92.

51. Витяев, E. Е. Естественная классификация, систематика, онтология / E. Е. Витяев, В. С. Костин // Информационные технологии в гуманитарных исследованиях. Новосибирск, 2009. Т. 13. С. 65 75.

52. Витяев, E. Е. Вероятностное обобщение формальных понятий / E. Е. Витяев, А. В. Демин, Д. К. Понамарев // Программирование. Новосибирск, 2012. Т. 38, № 5. С. 219 230.

53. Витяев, E. Е. Формализация естественной классификации и систематики через неподвижные точки предсказаний / E. Е. Витяев, В. В. Мартынович // Сибирские электронные математические известия. Новосибирск, 2015. Т. 12. С. 1006 1031.

54. Витяев, Е. Прозрачное глубокое обучение на основе вероятностных формальных понятий в задаче обработки естественного языка / Е. Витяев,

B. В. Мартынович // Известия Иркутского государственного университета. Новосибирск, 2017. Т. 22. С. 31 49.

55. Kuznetsov, S. Comparing Performance of Algorithms for Generating Concept Lattices / S. Kuznetsov, S. Obiedkov // Journal of Experimental and Theoretical Articial Intelligence. 2002. Vol. 14. P. 189 216.

56. ParrocJiia, D. Towards a General Theory of Classifications / D. Parrochia, P. Neuville. 2013. 707 p.

57. Van Breukelen, M. Handwritten digit recognition by combined classifiers / M. Van Breukelen, D. Tax, J. Den Hartog // Kybernetika. 1998.

C. 381 386.

58. Набор для распознавания рукописных цифр. URL: http://archive.ics. uci.edu/ml/datasets/Multiple • Features.

59. МсСапщ M. Causality Challenge: Benchmarking relevant signal components for effective monitoring and process control / M. McCann, Y. Li, L. Maguire etc. // JMLR: Workshop and Conference Proceedings. 2010. Vol. 6. P. 277 288.

60. Semiconductor Manufactoring Dataset. URL: http://archive.ics.uci.edu/ ml/datasets/SECOM.

61. Качанова, Т. Л. Естественная классификация острых отравлений фос-форорганическими веществами / Т. Л. Качанова, К. А. Туральчук, Б. Ф. Фомин и др. // Известия СПбГЭТУ "ЛЭТИ". 2015. Т. 8.

С. 8 17.

62. Golub, Т. R. Molecular Classification of Cancer:Class Discovery and Class Prediction by Gene Expression Monitoring / T. R. Golub, D. K. Slonim, P. Tamayo etc. // Science. 1999. Vol. 286.

63. Guy on, /. Gene Selection for Cancer Classification using Support Vector Machines / I. Guyon, J. Weston, V. Vapnik etc. // Machine Learning. 2002. P. 386 422.

64. Zaied, A. N. Acute Leukemia Classification using Bayesian Networks / A. N. Zaied, M. G. Habishy, M. A. Saleh // International Journal of Emerging Trends in Computing and Information Sciences. 2012. Vol. 3. P. 1419 1426.

65. Покровский, M. П. К понятию "сущность" / M. П. Покровский. 2004.

66. Забродин, В. Ю. О критериях естественности классификаций / В. Ю. Забродин // Научно-техническая информация. 1981. С. 22 24.

67. Субботин, А. Л. Классификация / А. Л. Субботин. Москва : ИФ РАН, 2001. 94 с.

68. Kach.anova, Т. Generating scientifically proven knowledge about ontology of open systems. Multidimensional knowledge-centric system analytics / T. Kachanova, B. Fomin, O. Fomin // Ontology in Information Science. InTechOpen, 2018. P. 169 204.

69. Баранцев, P. Г. Системная структура классификации / P. Г. Баранцев // Классификация в современной науке. 1989. С. 72 86.

70. Поздняков, А. А. К проблеме целостности высших таксонов / А. А. Поздняков. 2008.

71. Любшцев, А. А. Проблемы формы, систематики и эволюции организмов / А. А. Любищев. М : Наука, 1982. 279.

72. Lipton, Z. С. The Mythos of Model Intestability / Z. C. Lipton // 2016 ICML Workshop on Human Interpretability in Machine Learning / иод ред. Т. editor. 2016. Vol. 4(5).

73. Любищев, А. А. О критериях реальности ь таксономии / А. А. Люби-щеь // Проблемы формы систематики и эволюции организмов. М : Наука, 1982. С. 113 132.

74. Качано в а, Т. Л. Реконструктивный анализ поведения сложных систем по эмпирическим данным / Т. Л. Качанова, Б. Ф. Фомин. СПб : Изд-во СПбГЭТУ «ЛЭТИ», 1997.

75. Качанова, Т. Л. Симметрии, взаимодействия в локальностях, компоненты поведения сложных систем / Т. Л. Качанова, Б. Ф. Фомин. СПб : Изд-во СПбГЭТУ «ЛЭТИ», 1998.

76. Качанова, Т. Л. Новая методологическая платформа общей системоло-гии / Т. Л. Качанова, Б. Ф. Фомин. СПб : Изд-во СПбГЭТУ «ЛЭТИ», 1998.

77. Качанова, Т. Л. Метатехнология системных реконструкций / Т. Л. Качанова, Б. Ф. Фомин. СПб : Изд-во СПбГЭТУ «ЛЭТИ», 2002.

78. Качанова, Т. Л. Методы и технологии генерации системного знания / Т. Л. Качанова, Б. Ф. Фомин. СПб : Изд-во СПбГЭТУ «ЛЭТИ», 2012.

79. Качанова, Т. Л. Технология системных реконструкций / Т. Л. Качанова, Б. Ф. Фомин. СПб : Политехника, 2003.

80. Kachanova, Т. Cognition of ontology of Open Systems / T. Kachanova, B. Fomin // Procedia Computer Science Journal. 2017. P. 339 346.

81. Kachanova, T. Physics of open systems: Generation of system knowledge / T. Kachanova, B. Fomin // J. Systemics, Cybernetics and Informatics. 2013. Vol. 11(2). P. 73 82.

82. На,кем, H. Synergetics, an Introduction: Nonequilibrium Phase Transitions and Self-Organization in Physics, Chemistry, and Biology / H. Haken. Springer-Verlag, 1983.

83. Klimontovich, Y. L. Introduction into physics of open systems / Y. L. Klimontovich. Janus-K, 2002. C. 284.

84. Klimontovich., Y. L. Statistical theory of open systems. Т. 1 / Y. L. Klimontovich. Janus, 1995.

85. Kachanova, Т. Physics of Systems is a postcybernetic paradigm of systemology / T. Kachanova, B. Fomin // Intern. Symp. "Science 2.0 and Expansion of Science: S2ES" in the context of the 14th World-Multi-Conference "Systemics, Cybernetics and Informatics": WMSCI 2010. Orlando, USA, 2010. P. 244 249.

86. Kachanova, T. Scientific understanding of ontological knowledge about open systems that is automatically mined from big data / T. Kachanova, K. Turalchuk, B. Fomin // Proceedings of the 33rd International Business Information Management Association Conference. 2019.

87. Качанова, Т. Л. Введение в язык систем / Т. Л. Качанова, Б. Ф. Фомин. Санкт-Петербург : Наука, 2009.

88. Качанова, Т. Л. Квадитодогия системного знания / Т. Л. Качанова, Б. Ф. Фомин. СПб : Изд-во СПбГЭТУ «ЛЭТИ», 2014.

89. Овчинников, Н. Ф. Структура и симметрия / Н. Ф. Овчинников // Системные исследования. Методологические проблемы. Ежегодник. М : Наука, 1969. С. 111 121.

90. Овчинников, Н. Ф. Симметрия закономерность природы и принцип познания / Н. Ф. Овчинников // Принцип симметрии. М : Наука. С. 5 46.

91. Качанова, Т. Л. Основания системодогии феноменального / Т. Л. Качанова, Б. Ф. Фомин. СПб : Изд-во СПбГЭТУ «ЛЭТИ», 1999.

92. Shannon, С. Е. A mathematical theory of communication / С. E. Shannon // Bell System Technical Journal. 1948. Vol. 27. P. 379 423.

93. Кендала, M. Ранговые корреляции. Зарубежные статистические исследования / М. Кендадд. 1975. 216 с.

94. Hollander, М. Nonparametric statistical methods / М. Hollander, D. Wolfe. New York : John Wiley, Sons, 1999.

95. Роберте, Ф. С. Дискретные математические модели с приложениями к социальным, биологическим и экологическим задачам / Ф. С. Роберте. Наука, 1986. 496 с.

96. Качанова, Т. Л. Системная онтология классов / Т. Л. Качанова, Б. Ф. Фомин // Изд-во СПбГЭТУ «ЛЭТИ». 2015. Вып. 7. С. 25 36.

97. Качанова, Т. Л. Метод естественной классификации на основе информационных технологий физики открытых систем / Т. Л. Качанова, К. А. Туральчук, Б. Ф. Фомин и др. // Информационные технологии в управлении (ИТУ-2016) Материалы 9-й конференции по проблемам управления. 2016. С. 15 24.

98. Качанова, Т. Л. Системная онтология классов и естественная классификация / Т. Л. Качанова, К. А. Туральчук, Б. Ф. Фомин и др. // Всероссийская научная конференция по проблемам управления в технических системах. 2015. № 1. С. 50 53.

99. Фреге, Г. Смысл и денотат. Т. 8. Семиотика и информатика / Г. Фреге. М, 1977.

100. Панова, Н. Принцип двойственности в теории классификации / Н. Панова, Ю. Шрейдер // Научно-техническая информация. 1975. Т. 10.

101. Шрейдер, Ю. Ранговые распределения как системное свойство / Ю. Шрейдер // Математическое описание ценозов и закономерности технетики. 1996. С. 33 42.

102. Арапов, М. В. Системный анализ лексической структуры текстов / М. В. Арапов // Системные исследования. Методологические проблемы. Ежегодник. М : Наука, 1981. С. 372 403.

103. Мандельброт, Б. Теория информации и психолингвистика: теория частот слов / Б. Мандельброт // Математические методы в социальных науках. Сб. статей. М : Прогресс, 1973. С. 316 337.

104. Апресян, Ю. Д. Лексическая семантика: Синонимические средства языка / Ю. Д. Апресян. М : Наука, 1974. 367 с.

105. Никитин, М. В. Курс лингвистической семантики / М. В. Никитин. М : Научный центр проблем диалога, 1996. 760 с.

106. Никитин, М. Лексическое значения слова / М. Никитин. М : Высшая школа, 1983.

107. Щур, Г. С. Теория поля в лингвистике / Г. С. Щур. М : Изд-во "Наука", 1974. 255 с.

108. Уфимцева, А. Теории семантического поля и возможности их применения при изучении словарного состава языка / А. Уфимцева // Вопросы теории языка в современной зарубежной лингвистике. М, 1961.

С. 30 63.

109. Гланц, С. Медико-биологическая статистика / С. Гланд. Москва : Практика, 1999. 459 с.

110. трейдер, Ю. Равенство. Сходство. Порядок / Ю. Шрейдер. М : Наука, 1971. 257 с.

111. Новые идеи в научной классификации. Сб. науч. трудов. Т. 5. Екатеринбург : УрО РАН, 2010. 642 с.

112. Sneath, P. Numberical taxonomy / P. Sneath, R. Soukal. San Francisco : W. H. Freeman, Company, 1972. 296 p.

113. Агеев, В. О. Генерация системного знания по проблемам социальной напряженности в регионах России / В. О. Агеев, Т. Л. Качанова, К. А. Ту-ральчук и др. // Научно-технические ведомости СПбГПУ. 2012.

Т. 147. С. 300 308.

114. Качанова, Т. Л. Применение метода определения системных эффектов многофакторных воздействий / Т. Л. Качанова, Б. Ф. Фомин // Известия СПбГЭТУ «ЛЭТИ». 2017. Вып. 2. С. 19 29.

115. Качанова, Т. Л. Системные эффекты многофакторных воздействий в открытых системах / Т. Л. Качанова, Б. Ф. Фомин // Известия СПбГЭТУ «ЛЭТИ». 2017. Вып. 1. С. 28 37.

116. Качанова, Т. Л. Анализ аварийности сетей городского водоснабжения на базе системного знания / Т. Л. Качанова, К. А. Туральчук, Б. Ф. Фомин и др. // Научно-технические ведомости СПбГПУ. 2015. Т. 121, № 3. С. 297 303.

117. Мартин, Р. Чистая архитектура, искусство разработки программного обеспечения: книга о ключевых вопросах архитектуры и дизайна приложения / Р. Мартин. СПб : Питер, 2018. 382 с.

118. Нъюмещ С. Создание микросервисов: книга посвященная программированию микросервисов / С. Ньюмен. СПб : Питер, 2016. 304 с.

119. Pattern: Microservice Architecture // microservices.io: a website about microservice architecture. URL: https : / / microservices . io / patterns / microservices.html.

120. Хорсдал,, К. Микросервисы на платформе .NET: книга о построении микросервисной архитектуры с использованием платформы .NET Core / К. Хорсдал. СПб : Питер, 2018. 408 с.

121. Туральчук, К. А. Современные технологии параллельного программирования: учеб. пособие. / К. А. Туральчук. СПб : Изд-во Политехи, ун-та, 2013. 222 с.

122. Туральчук, К. А. Параллельное программирование с помощью языка Q / К. А. Туральчук. Москва : ИНТУИТ, 2019. 189 с.

123. Kachanova, Т. Class Reconstruction in the Space of Natural System Classification / T. Kachanova, K. Turalchuk, B. Fomin // Procedia Computer Science. 2019. Vol. 150. P.140 146.

124. Туральчук,, К. А. Метод отбраковки негодных полупроводниковых изделий на базе технологий физики систем / К. А. Туральчук, Т. Л. Качанова // Известия СПбГЭТУ "ЛЭТИ". 2013. Т. 7. С. 46 53.

125. Качанова, Т. Л. Системная онтология классов в задаче обнаружения негодных изделий в полупроводниковом производстве / Т. Л. Качанова, Б. Ф. Фомин, К. А. Туральчук // Международная конференция по мягким вычислениям и измерениям. Т. 2. 2018. С. 87 90.

126. Бабкина, Л. Использование моментов Цернике при анализе изображений / Л. Бабкина, Ю. Гармай, Д. Лебедев и др. // Сиб. жури, вычисд. математики. Новосибирск, 2013. Т. 16. С. 147 163.

127. Teague, М. Image analysis via the general theory of moments / M. Teague // Journal Optical Society America. 1980. Vol. 70. P. 920 930.

128. Ch.ee-Way, C. A comparative analysis of algorithm for fast computation of Zernike moments / C. Chee-Way, P. Raveendran, R. A. Mukundan // The journal of the pattern recognition society. 2002. Vol. 36. P. 731 742.

129. Тьюки, Д. Анализ результатов наблюдений. Разведочный анализ. / Д. Тыоки. М : Мир, 1981. 696 с.

130. Документация по функции Heat Map в среде R. URL: https://www. rdocumentation.org/packages/stats/versions/3.6.0/topics/heatmap.

131. Клир, Д. Системодогия: Автоматизация решения системных задач / Д. Клир. М : Радио и связь, 1990. 544 с.

Список рисунков

2.1 Индуктивный процесс редукции сложного и реконструкции целого . 28

2.2 Схематическое представление АЯ: ММЭД - многомерный массив эмпирических данных; 03 - онтологическое знание о системе; РСЗ -ресурсы системного знания................................................29

2.3 Формы представления системы............................................30

2.4 Фрагмент графа связей для «Leuco»......................................32

2.5 Схема порождения системных моделей..................................33

2.6 Ядро СМ Р713..............................................................33

2.7 Схема порождения моделей эталонных состояний......................35

2.8 Уровни значений показателей в реконструкции (фрагмент)...... 37

3.1 Семантические треугольники системы и КП............................41

3.2 Модель ECK................................................................42

3.3 Формы представления КП ................................................46

3.4 Функциональная схема метода............................................50

3.5 Пример формирования дескрипторов....................................55

3.6 Схематическое представление ССМ......................................58

3.7 Аналитическое ядро ФОС..................................................61

3.8 Аналитическое ядро ФОС в контексте ECK ............................62

3.9 Архитектура решателя ECK..............................................64

4.1 Распределение количества формализованных дескрипторов по

рангам и классам ..........................................................72

4.2 Охват референтов дескрипторами........................................74

4.3 ССМ 3-го класса (фрагмент)..............................................75

4.4 Распределение референтов по областям..................................78

4.5 Виды бинарных отношений между дескрипторами семантического компонента третьего класса................................................79

4.6 Распределение формализованных дескрипторов........................82

4.7 Распределение дескрипторов по референтной поддержке..............83

4.8 Распределение количества дескрипторов ядра, центра и полного множества и объем референтного покрытия............................85

4.9 Распределение количества показателей, участвующих в описании референтов..................................................................86

4.10 Распределение референтов по областям таксонов ......................87

4.11 Матрица бинарных отношений для дескрипторов центра 2-го класса 88

4.12 Примеры графических образов для каждого класса....................91

4.13 Распределение количества дескрипторов по классам....................92

4.14 Распределение дескрипторов по количеству показателей..............93

4.15 Распределение дескрипторов по референтной поддержке..............93

4.16 Распределение референтов по количеству дескрипторов................95

4.17 Распределение дескрипторов по максимальной поддержке............95

4.18 Количество дескрипторов и референтный объем ССМ ................96

4.19 Распределение референтов по областям классов........................97

4.20 Диаграммы размаха количества дескрипторов по референтным областям ....................................................................99

4.21 Образы референтов смежной области «С2»...............100

4.22 Образы референтов смежной области «С1»...............101

4.23 Образы референтов смежной области «СЗ»...............101

4.24 Диаграмма сходства репрезентантов классов..............103

4.25 Ядро ССМ класса «AML» (фрагмент) .................109

4.26 Распределение референтов по областям денотата ...........111

Список таблиц

1.1 Результаты алгоритмов ML & DM для системы данных «Numbers» . 17

1.2 Результаты алгоритмов ML & DM для системы данных «Secom» . . 18

1.3 Классификационные правила для системы данных «Secom»..... 18

1.4 Результаты алгоритмов ML & DM для системы данных «ToxEffects» 19

1.5 Результаты алгоритмов ML & DM для системы данных «Leuco» ... 20

2.1 Характеристики системы «Leuco», заданной в отношениях............31

2.2 Система «Leuco», представленная в качествах..........................34

2.3 Устроение модели эталонных состояний Р26 LL........................36

2.4 Реконструкции объектов системы данных «ToxEffects»................37

2.5 Уровни значений в реконструкции состояний............................38

3.1 Типы соединений ядерностей..............................................49

3.2 Ранги доминирования ядерностей по классам ..........................51

3.3 Доминантные ядерности (фрагмент, система «Leuco») ................52

3.4 Доминантные показатели (фрагмент, система «Leuco»)................53

3.5 Области таксона............................................................59

3.6 Корректировка области таксона..........................................60

4.1 Отравляющие вещества в системе данных «ToxEffects»................70

4.2 Эмпирическое описание референтов «ToxEffects» ......................70

4.3 Характеристики системного знания......................................71

4.4 Распределение доминантных показателей и ядерностей по классам ФОБ..........................................................................71

4.5 Характеристики формализованных дескрипторов......................72

4.6 Представление дескрипторов («ToxEffects», фрагмент)................73

4.7 Свойства ССМ классов....................................................75

4.8 Показатели в репрезентантах..............................................76

4.9 Репрезентанты классов («ToxEffects», фрагмент)........................77

4.10 Устроение денотативного компонента (фрагмент)......................77

4.11 Распределение доминантных показателей и ядерностей по классам . 82

4.12 Представление дескрипторов («Secom», фрагмент) ....................84

4.13 Уровни значений показателей в ядерностях дескриптора..............84

4.14 Оценки ССМ классов......................................................85

4.15 Распределение референтов смежной области............................87

4.16 Характеристики блоков для 2-го класса..................................88

4.17 Распределение референтов по областям..................................89

4.18 Показатели эмпирического описания ....................................90

4.19 Характеристики системного знания......................................91

4.20 Распределение доминантных элементов по классам....................92

4.21 Примеры дескрипторов («Numbers») ....................................94

4.22 Оценки ССМ классов......................................................96

4.23 Репрезентанты классов....................................................97

4.24 Описание референтов на уровне дескрипторов и референтных областей......................................................................98

4.25 Коэффициенты ранговой корреляции Спирмена........................99

4.26 Меры близости к репрезентантам классов................100

4.27 Меры близости к репрезентантам классов................101

4.28 Дескрипторы центра для референтов из смежных областей «С1» и «С2».....................................102

4.29 Оценки сходства репрезентантов классов................103

4.30 Эмпирические описания системы «Leuco»................105

4.31 Оценки системного знания........................105

4.32 Пример ядерностей системы «Leuco»..................106

4.33 Распределение количества характерных уровней значений показателей по классам (фрагмент)...................107

4.34 Доминантные ядерности (фрагмент)...................107

4.35 Представление дескрипторов («Leuco», фрагмент)...........108

4.36 Характеристики ССМ классов («Leuco»)................108

4.37 Репрезентанты классов (фрагмент) ...................110

4.38 Устроение денотативного компонента (фрагмент)...........111

Обратите внимание, представленные выше научные тексты размещены для ознакомления и получены посредством распознавания оригинальных текстов диссертаций (OCR). В связи с чем, в них могут содержаться ошибки, связанные с несовершенством алгоритмов распознавания. В PDF файлах диссертаций и авторефератов, которые мы доставляем, подобных ошибок нет.