Социальные риски внедрения искусственного интеллекта тема диссертации и автореферата по ВАК РФ 00.00.00, кандидат наук Георгиу Такис

  • Георгиу Такис
  • кандидат науккандидат наук
  • 2025, ФГАОУ ВО «Государственный университет просвещения»
  • Специальность ВАК РФ00.00.00
  • Количество страниц 211
Георгиу Такис. Социальные риски внедрения искусственного интеллекта: дис. кандидат наук: 00.00.00 - Другие cпециальности. ФГАОУ ВО «Государственный университет просвещения». 2025. 211 с.

Оглавление диссертации кандидат наук Георгиу Такис

Введение

Глава 1. Философский анализ природы искусственного интеллекта

1.1. Понятие естественного интеллекта

1.2. Философский анализ природы искусственного интеллекта

1.3. Философское осмысление проблемы «сознание-тело» и личности в контексте развития искусственного интеллекта

Выводы по главе

Глава 2. Социальные риски внедрения искусственного интеллекта:

социально-философский анализ

2.1. Бытие человека в цифровом обществе и риски интеграции ИИ в повседневную жизнь

2.2. Философский анализ социальных рисков бытия современного

человека в обществе с интегрированным ИИ

2.3. Философско-этические проблемы взаимодействия искусственного интеллекта и человека в обществе: системно-структурный анализ

Выводы по главе

Заключение

Список литературы

Рекомендованный список диссертаций по специальности «Другие cпециальности», 00.00.00 шифр ВАК

Введение диссертации (часть автореферата) на тему «Социальные риски внедрения искусственного интеллекта»

Введение

Искусственный интеллект (ИИ), созданный человеком, оказывает значительное воздействие на развитие общества и самого человека. С появлением новых «умных1» устройств, которые стали неотъемлемой частью повседневной жизни и принимают за человека интеллектуальные решения, ранее считавшиеся исключительной прерогативой человека, устоявшиеся представления, убеждения, знания и структуры, присущие социуму, подвергаются сомнению и принципиальному пересмотру. В этом новом контексте люди чувствуют себя комфортно в окружении новых интеллектуальных сущностей, предпочитая проводить большую часть времени в цифровом пространстве и взаимодействуя с ними. Данное исследование актуально, потому что анализирует суть и риски этих социально-когнитивных трансформаций в условиях возникновения совершенно новой по своим технологическим характеристикам для истории человечества социоантропотехносферы с органически интегрированным искусственным интеллектом (ИИ).

Следовательно, актуальность темы определяется следующими соображениями:

Во-первых, ИИ - мощная технология, охватывающая все сферы человеческой жизни, начиная от личных и профессиональных областей и заканчивая социальной деятельностью. Внедрение этой технологии несет как позитивные, так и негативные последствия для общества и его членов. Отсюда возникает острая необходимость проведения социально-философского анализа и прогнозирования возникающих при повсеместном внедрении ИИ социальных рисков.

1 Умные устройства — это интерактивные электронные устройства оснащенными с ИИ, которые понимают команды, отправляемые пользователями, и способствуют к решению интеллектуальных задач.

Во-вторых, внедрение ИИ устанавливает новые нормы в общественных отношениях, что приводит к усугублению существующих социальных проблем и возникновению новых вызовов, связанных с изменением традиционных методов взаимодействия между людьми и технологическими устройствами. Это заставляет пересматривать устоявшиеся представления о мире, обществе, правах и свободе человека.

В-третьих, активное внедрение ИИ автоматически влечет за собой возникновение серьезных онтологических и аксиологических вопросов бытия человека. Учитывая, что современные технологии могут быть использованы не только в благих целях, мыслящая часть общества понимает неизбежность столкновения со все новыми вызовами, включая фундаментальные вопросы о собственной идентичности и даже о самом существовании человека.

В-четвертых, появление «умных» машин ставит ряд моральных дилемм. Частота и степень серьезности таких ситуаций морального выбора будут постоянно возрастать по мере усиления способностей и автономности этих систем, позволяющих им принимать моральные решения. Симбиоз человека и мыслящей техники формирует новую реальность, в которой обществу предстоит взаимодействовать с различными интеллектуально -цифровыми сущностями, такими как роботы, киборги, автономные устройства, что неизбежно требует разработки новых правил для безопасного и продуктивного совместного существования. В этом плане крайне важно создание этических стандартов и правил для разработки и использования ИИ.

Все это требует углубленного выявления, анализа и прогнозирования возникающих явных и скрытых социальных рисков с обязательной их этической оценкой и созданием методик профилактики появления подобного рода рисков.

Степень научной разработанности проблемы.

Изучение человека, его уникальных характеристик - интеллекта, мышления, разума и сознания, системы его социальных взаимодействий и развития началось еще в рамках античной философии.

Античные философы различали понятия «интеллект» и «разум». Особое внимание уделялось понятию «логос». По Гераклиту [Гераклит, 2012] «Логос» - объективное начало, всеобщее, божественный закон, лежащий в основе космоса, а также слово, речь, разум и мысль. «Логос» позволяет человеку постигнуть истину и гармонию космоса. Платон выделял два различных начала в человеке: телесное, материальное, и душевное, бессмертное метафизическое начало. Разум он считал руководителем души, для души состояния «быть» и «мыслить» были неразрывно связаны [Платон, 1993]. Аристотель особое внимание интеллекту и разуму уделял, рассматривая их как особые способности человека для познания мира. Он определял их как «мыслящую душу», выделяя тем самым человека среди других существ [Аристотель, 1998].

Этика всегда занимала значительное место в античной философии, помогая осознавать ограничения мышления и иногда приводя к интересным выводам и размышлениям о логике и способах понимании окружающего мира.

В эпоху Нового времени в западноевропейской философии, когда очень активно стали развиваться наука, техника и технологии, вопросы об интеллекте, разуме и развитии человека в обществе приобрели особую актуальность. Рене Декарт, Томас Гоббс, Фрэнсис Бэкон, Иммануил Кант, Готфрид Лейбниц и Дэвид Юм очень подробно исследовали эти проблемы.

Рене Декарт считал, что душа (разум) и тело - суть различные субстанции с разными свойствами - протяженности и мышления. Обе субстанции существуют параллельно, не пересекаясь [Декарт, 1994].

Фрэнсис Бэкон подчеркивал важность познания и развития личности в обществе, выдвигая идею уникального потенциала каждого человека,

который должен быть раскрыт и реализован. Он также высказывал идею о необходимости самоанализа и саморазвития. В контексте развития ИИ его теория идолов, согласно которой общество подвержено заблуждениям и искажениям, мешающим истинному познанию, становится особенно важной, [Осташевский, 2020].

Иммануил Кант определил «интеллект» как способность формирования понятий, а «разум» - как способность создания метафизических идей. Он разработал концепцию этики и выдвинул идею о категорическом императиве, который соблюдать обязательно всегда, независимо от наших желаний или потребностей [Максимов, 2018, электронный ресурс].

Современное понятие интеллекта подробно разработано Ю.Т. Кагановым и М.Б. Оселедчиком на базе функциональной теории знания М.Б. Оселедчика и понятия концептуальной переменной.

Проблема ИИ связана не только с интеллектом и разумом, но и с проблемой «сознание-тело» и вопросами этикой. Современные философы -Ник Бостром, Людвиг фон Витгенштейн, Курт Гёдель, Фрэнк Джексон, Рэй Курцвейл, Томас Нагель, Роджер Пенроуз, Бертран Рассел, Джулиан Томпсон, Алан Тьюринг, Лучиано Флориди, Филлипа Фут, Альфред Норт Уайтхед, Дэвид Чалмерс, Элиезер Юдковски - активно разрабатывали эту проблематику.

Алан Тьюринг [Тьюринг, 2019] предложил знаменитый «Тест Тьюринга», который формулирует вопрос: «Способна ли машина мыслить?». Этот тест является наиболее известным и широко обсуждаемым в области ИИ. Работа Тьюринга стала отправной точкой для эпохи ИИ, вызвав интерес у ученых, работающих в области информационных технологий, и став символом этой области. В результате проблема «сознание-тело» приобрела особую актуальность.

Вопросы, связанные с сознанием, привлекали внимание многих философов - их исследовали Фрэнк Джексон, Дэниел Деннет, Томас Нагель,

Хилари Патнэм, Джон Сёрл и Дэвид Чалмерс. Их мысленные эксперименты и результаты сыграли важную роль в исследованиях в области ИИ.

Дэниел Деннет [Dennett, 1972, 1978] высказал идею, что осуществление человеческого сознания в машине принципиально возможно.

Хилари Патнэм выдвинула гипотезу, что восприятие и воспринимаемая нами реальность являются «объективными», а содержание сознания не ограничено внутренними факторами, но во многом определяется внешней средой. Мысленный эксперимент под названием «Мозг в колбе» поднимает вопрос нашей способности обладать знанием о внешнем мире и о возможности того, что все наши представления могут быть ошибочными, так как сам мир может не существовать [Патнэм, 2002].

Фрэнк Джексон [Jackson, 1982, 1986], Томас Нагель [Nagel, 1974], Джон Сёрл [Searle, 1980] и Дэвид Чалмерс [Chalmers, 1997] в противовес в своих исследованиях отстаивают точку зрения, согласно которой сознание является высшей функцией мозга, присущей только человеку. Авторы утверждают, что машины просто имитируют функции человеческого мозга, не обладая подлинным осознанием своих действий и не обладая чувствами подобно человеку. Роджер Пенроуз дополняет, что процесс мышления невозможно описать на основе формальных систем, и человеческое сознание не может быть охарактеризовано исключительно алгоритмически [Пенроуз, 2020].

В мысленном эксперименте «Китайская комната» Джон Сёрл демонстрирует, что прохождение теста Тьюринга не обязательно является достаточным критерием для определения наличия у машины подлинного процесса мышления. Однако тот факт, что машины в некоторых сценариях выступают в роли моральных агентов, почти доказывает их способность к моральным решениям.

Многие философы утверждают, что ИИ воздействует на наше восприятие мира, формирует новую реальность и, таким образом, вызывает изменения и преобразования в обществе. Учитывая, что каждое научное

достижение не только способно повлиять на наше мировоззрение и переопределить наше восприятие мира, но также способно вызвать фундаментальные изменения в структуре общества, в повседневной жизни человека и даже в самой природе человечества, созданный человеком ИИ также оказывает существенное воздействие на развитие и функционирование общества, а также на само существование человека. Известный философ Ник Бостром предупреждает о серьезных рисках, связанных с ИИ, и создал концепцию «сверхразума», который значительно превосходит когнитивные способности человека [Бостром, 2016].

Прогноз Рэя Курцвейла предсказывает, что к 2029 году машины успешно пройдут тест Тьюринга. Это означает, что ИИ сможет понимать, обучаться и отвечать таким образом, что его будет трудно отличить от человека [Kurzweil, 2005]. В связи с этим Лучиано Флориди высказывает определенное недовольство развитием ИИ, выражая тревогу по поводу существенных социальных рисков и предлагая пересмотреть концепцию развития ИИ с учетом необходимости жесткого контроля [Floridi, 2018]. Применение ИИ в различных сферах жизни становится неизбежным. По мнению У. Ванга и К. Сиау [Siau, Wang, 2020] неконтролируемое использование ИИ в повседневной жизни приводит к определенным социальным рискам и ставит этические вопросы морального выбора.

Философы Филиппа Фут [Foot, 1967] и Джудит Томпсон [Thomson, 1976] в своих трудах представили мысленные эксперименты «Вагонетка» и «Толстяк», которые служат отличными примерами того, как в различных ситуациях морального выбора принятие решения может быть чрезвычайно трудным из-за отсутствия явного разграничения между «хорошим» и «плохим». Эти мысленные эксперименты заслуживают особого внимания для более глубокого понимания теоретической значимости их использования и исследования ситуаций в контексте моральной философии.

В отечественной литературе, отражающей результаты исследований, связанные с внедрением ИИ в общество, можно отметить работы таких

авторов как А.Ю. Алексеев [Алексеев и др. 2021], К.В. Анохин [Анохин, Электронный ресурс], Р.Г. Апресян [Апресян, 2016], Я.В. Бондарева [Бондарева, Завьялов, 2016], А.С. Горбунов [Горбунов, 2018], Д.И. Дубровский [Дубровский, 1994, 2007], А.Л. Крайнов [Крайнов, 2019], Н.Н. Моисеев [Моисеев, 2000], А.В. Разин [Разин, 2019], А.В. Резаев и Н.Д. Трегубова [Резаев, Трегубова, 2019], Е.В. Смирнов [Смирнов, 2012], Т.В. Черниговская [Черниговская, 2007, 2023, электронные ресурсы], О.Н. Четверикова [Четверикова, 2019].

Большинство из них соглашаются с тем, что внедрение ИИ в различные сферы жизни становится неотъемлемой необходимостью, но при этом происходит радикальное изменение общественных взаимоотношений и установление новой социальной системы. Несмотря на оптимистичные прогнозы сторонников ИИ, многие из упомянутых мыслителей выражают беспокойство относительно существования серьезных социальных рисков в новой объективной реальности. Они утверждают, что новая эра для человечества уже началась, и, по их мнению, человек не только не готов к ней, но даже не осознает все истинные опасности, поэтому необходимо незамедлительно принимать существенные меры безопасности.

На современном этапе существования информационного общества имеет место разнонаправленная оценка ситуации со стороны исследователей различных научных направлений. Однако большинство социальных мыслителей поддерживает идею введения жесткого контроля с целью предотвращения социальных рисков и обеспечения должного уважения к общечеловеческим ценностям (жизнь, свобода, мир, равенство, социальный прогресс и человеческое достоинство).

Объект исследования - ИИ и его социальное взаимодействие с человеком.

Предмет исследования - социальные риски внедрения и повсеместного использования ИИ.

Цель исследования - выявление основных социальных рисков внедрения и использования ИИ и их социально-философский анализ для выработки способов предотвращения и снижения степени опасности этих рисков.

В рамках этой цели предполагается решение следующих основных задач:

1. Провести анализ природы и сущностных атрибутов естественного интеллекта.

2. Провести философский анализ природы и сущностных особенностей искусственного интеллекта.

3. Проанализировать проблему «сознание-тело» и личности в контексте развития искусственного интеллекта с точки зрения онтологии и аксиологии.

4. Рассмотреть особенности бытия человека в цифровом обществе и выявить риски интеграции ИИ в повседневную жизнь людей.

5. Осуществить философский анализ социальных рисков бытия человека в обществе с интегрированным ИИ. Выявить и осуществить системно-структурный анализ философских и этические проблем взаимодействия ИИ и человека в современном обществе.

Теоретическая и методологическая база исследования

Идейно-теоретические истоки исследования - общечеловеческие памятники культуры, классические труды по философии, праву, гносеологии и психологии, по экономике, по социологии, по проблемам процессов цифровизации и информатизации, антропологии и аксиологии, по когнитивным наукам.

Исследование опирается на методологию в области социальной философии для анализа научной задачи, используя многоуровневую систему познавательных средств и соответствующий понятийно-категориальный аппарат. В своем исследовании автор использовал системно-структурный,

сравнительный, исторический, антропологический и диалектический методы, общенаучные методы (дедукцию, индукцию, анализ, синтез, аналогию и сравнение).

Научная новизна исследования

1. На базе идей Ю.Т. Каганова и М.Б. Оселедчика построена теория природы и сущностных характеристик естественного интеллекта.

2. Дано систематизированное описание существенных характеристик искусственного интеллекта, как технологического и когнитивного феномена с точки зрения социальной философии.

3. Дана философская аргументация того утверждения, что ИИ как материальная система не способен мыслить, как человек.

4. Дан системный анализ комплекса причин неизбежной цифровизации и информатизации общества, в т.ч. развития и интеграции технологий ИИ.

5. Дана философская классификация социальных рисков повсеместного внедрения ИИ.

Положения, выносимые на защиту:

1. Термин «интеллект» (естественный) не только охватывает понятия разума, смысла и мышления, но также представляет собой совокупность поведенческих актов субъекта, осуществляемых с использованием разума и различных психических способностей - сознания, интуиции и эмоционального интеллекта - во взаимодействии с окружающей средой. Помимо мышления и разума, у человека существуют и другие психические свойства, и исследование показывает, что особенные характеристики, включая сознание и личность, выделяют его среди других живых существ.

Интеллект является функциональным свойством человека, наделенного сознанием. Он обладает разной степенью развития и способен к повышению своей эффективности путем обучения и самообучения. Интеллект - сложная интегральная динамическая система континуально взаимодействующих

между собой психических способностей человеческого мозга, создающая нелинейные траектории обработки полимодальной информации с помощью усвоенных в процессе социализации и приобретения личного опыта системы сложных когнитивных аттракторов, состоящих из взаимосвязанных в виде запутанной системы мультиграфов с концептуальными переменными в виде вершин. Интеллект обладает быстродействием последовательных и параллельных когнитивных операций в режиме многозадачности. Интеллект основан на процессах понимания и интерпретации полимодальной информации с помощью имеющейся в его распоряжении функционирующей системы знания, способной к мгновенной актуализации благодаря квантовым характеристикам концептуальных переменных, составляющих знание.

В качестве результата человеческий интеллект производит мультимодельную информацию, содержащую решения поставленных проблем. Деятельность человеческого интеллекта всегда имеет семиотический характер, представляя собой непрерывные процессы смыслоизвлечения и смыслопорождения.

2. ИИ как технологический и когнитивный феномен обладает несколькими важными характеристиками с точки зрения социальной философии. Во-первых, ИИ - это попытка математического и логического моделирование функций и действий человеческого интеллекта и создание на базе этого моделирования алгоритмов, имитирующих работу человеческого интеллекта. Во-вторых, ИИ всегда базируется на основе материальной, физически существующей информационно-коммуникационной

инфраструктуры; на базе программного обеспечения; на основе процессов и серверов по обработке данных и поиску решений. В-третьих, ИИ всегда работает с огромными наборами данных, трудных для их обработки человеком без использования современных цифровых средств. В-четвертых, базовая особенность ИИ - заложенная в него способность к самообучению и автономной работе. В-пятых, ИИ зависим от изначально полученных данных и тех алгоритмов, на базе которых он работает и самообучается.

Ошибочность и тенденциозность отбора исходных данных приводит к ошибочности и опасности его решений. В-шестых, деятельность ИИ по самостоятельно разработанным им алгоритмам делает непонятными и непрозрачными результаты его работы, что иногда ставит их под сомнение, подрывая доверие пользователей к ним. В-седьмых, в работе ИИ как комплекса различных технологических решений и технических систем возможны поломки и сбои, что может привести к негативным последствиям для людей.

Гносеологическая природа ИИ основана на моделировании функционирования естественного интеллекта и претендует на способность автоматизировать высшие функции человеческого мозга. Системы ИИ приобретают способность к самообучению и принятию решений, что ранее считалось прерогативой человека. Хотя в данный момент эти системы требуют вмешательства человека и не обладают еще полной автономией, но тенденции их развития поднимают вопрос о возможности детального моделирования мышления и построения искусственного сознания, делая симбиоз человека и цифровых устройств новой реальностью, что приводит к построению принципиально новой онтологии человеческого бытия.

3. По мере распространения интеллектуальных устройств, способных анализировать сложные данные и улучшать свои навыки для решения интеллектуальных задач, создание искусственного сознания остается ключевой задачей для научного сообщества в области ИИ. Вопрос «сознание-тело» и обсуждение того, способна ли машина мыслить и обладать сознанием, находится в центре активных дебатов среди ученых. Тем не менее, считается, что человеческая природа уникальна, и сознание присуще исключительно человеку, не передаваемо никакому материальному объекту. Таким образом, мы придерживаемся точки зрения, согласно которой материальные системы, вроде ИИ, не способны выполнять функции, которые делают человека человеком, ибо ему недоступно креативное мышление как человеку в силу его действия в замкнутой базе данных.

4. С точки зрения системного подхода развитие технологии ИИ является одним из существенно важных неотъемлемых структурно-функциональных компонентов общих процессов информатизации и цифровизации бытия социума. С позиции исторического подхода информационная и цифровая трансформация бытия социума - неизбежный процесс эволюции человека как биологического вида. В основе этого лежат комплексы взаимодействующих между собой экономических, когнитивных, политических и бытовых причин. Экономической основой таких трансформаций является выгодность использования таких технологий: резко увеличивается эффективность, производительность и прибыльность предприятий, оснащенных такими технологиями. Они становятся значительно более конкурентоспособными. До той поры, пока в обществе существуют товарно-денежные отношения, никто и никогда по доброй воле не откажется от возможности удовлетворить свои меркантильные интересы. Когнитивной причиной развития и использования таких технологий служит способность обрабатывать очень большие массивы данных, которые сложно обработать вручную, и возможность получения более точных и необычных результатов исследований, которые вполне возможно не смог бы получить человек. К тому же нельзя сбрасывать со счетов моменты познавательного интереса человека и его тяги к созданию новых технологий и технических устройств. В принципе вся история эволюции человека как биологического вида находится в коэволюционном взаимодействии с его способностью к созданию искусственных объектов, со временем частично превращающихся в технические устройства и усложняющиеся технические и технологические системы. Политической причиной развития этих технологий является усиление военной мощи государства, потребностями эффективной защиты правопорядка, обеспечения правильно работающей финансово-экономической (в т.ч. налоговой) системы, привлекательными возможностями влияния на общественное сознания, потребностями госуправления и контроля за жизнью граждан, что с помощью таких

технологий становится гораздо эффективнее. Бытовой причиной этих трансформаций становится традиционное стремление людей к максимальному облегчению, эргономичности и эффективности своей повседневной жизни, включая решение профессиональных, социальных и бытовых задач, что достаточно успешно обеспечивается цифровыми технологиями, включая ИИ. Органическая интеграция информационных и цифровых технологий в повседневную жизнь общества и множества его членов ведет к принципиальному изменению самой онтологии бытия человека. С одной стороны, бытие общества становится гибридным, органично сочетая его физически осязаемое, материальное бытие во всем многообразии его объектов, субъектов, действий и процессов с виртуальным бытием, в котором человек осуществляет множество действий и активно участвует в производственных, экономических, финансовых, социальных, познавательных, творческих и других многообразных процессах. Сложные технические устройства и системы становятся необходимым инструментом и компонентом жизнедеятельности. Т.е. с точки зрения философии возникает новая антропобиосоциотехносфера. С одной стороны, мы можем это принципиально новое эволюционное образование рассматривать как некое инобытие ноосферы. С другой стороны, мы вплотную сталкиваемся с явлением «планетарной цефализации».

5. Философская классификация социальных рисков, которые несет повсеместное внедрение в жизнедеятельность человека технологии ИИ, может быть представлена в следующем виде. Во-первых, это онтологические риски, несущие экзистенциальную опасность для выживания человека как биологического вида: изменение бытия человека во всей полноте его материальных и духовных компонентов и его трансформация в гибридное бытие, где материальное и духовное частично переходят в виртуальное бытие, что может привести к потере человека своей биологической сущности и дегуманизации бытия; использование технологии ИИ в военных целях, что дает оружию невиданную мощь, что несет опасности для выживания

человечества; способность ИИ к принятию негуманных решений, что может поставить под угрозу здоровье и жизнь людей; процессы цефализации, т.е. срастание природных и искусственных интеллектуальных способностей, что ставит дальнейшее бытие человека как вида в зависимость от надежности работы технологических систем ИИ. Во-вторых, это гносеологические риски: непрозрачность и непонятность сути работы алгоритмов ИИ, которые могут быть изменены самим ИИ в процессе самообучения, что вызывает недоверие к решениям и результатам, генерируемым ИИ; непредсказуемость генерируемых результатов; способность ИИ к генерации фейков и инфоповодов, что приводит к смешению истины и лжи, и манипуляциям общественным сознанием; предвзятость и предубеждения в алгоритмах ИИ как следствие неполных и ошибочных данных, взятых для основы обучения; некреативность работы систем ИИ в отличие от человека, поскольку ИИ действует в рамках вложенной в него ограниченной базы данных. В-третьих, это аксиологические риски: способность ИИ помогать в тотальной слежке за жизнью людей, утрата конфиденциальности, отсутствие защиты персональных данных, вмешательство в частную жизнь; способность тотального ограничения демократии, права на свободу слова и других свобод человека; ограничение свободного доступа к информации; использование людей в качестве ресурсов; изменение общественных норм, представлений о работе, отношениях, власти, морали. В-четвертых, это антропологические риски: отсутствие социально-эмоциональной составляющей в коммуникации человек-ИИ; антропологизация технических устройств с ИИ и приписывание им несвойственных им человеческих свойств, что приводит к неправильному взаимодействию с ними; неравенство доступа к устройствам с ИИ, что приводит к усилению социального и экономического неравенства; развитие киберпреступности, что снижает степень безопасности жизнедеятельности людей и возможным угрозам их имуществу; рост безработицы; утрата важных человеческих навыков - критического мышления, творчества, социальной компетентности - из-за избыточного использования ИИ; риски

Похожие диссертационные работы по специальности «Другие cпециальности», 00.00.00 шифр ВАК

Список литературы диссертационного исследования кандидат наук Георгиу Такис, 2025 год

СПИСОК ЛИТЕРАТУРЫ

1. Anderson S. L., Anderson M. AI and ethics // AI and Ethics. 2021. № 1 (1). P. 27-31.

2. Абросимов В. К. Искусственный интеллект и проблемы развития вооружения и военной техники // Вооружение и военная техника. 2021. № 56 (2). C. 5-21.

3. Абсалямова Г. Ф., Рафиков Р. И. Преимущества и риски ИИ в бизнесе и рынке труда // Вопросы студенческой науки. 2023. № 81 (5). C. 434-438.

4. Азимов А. Я, робот / пер. с англ. Н.А. Сосновской, А.Д. Иорданского / А. Азимов. М.: Эксмо, 2020. 320 с.

5. Апресян Р. Г. Моральная философия, мысленный эксперимент и неуправляемая вагонетка // Философский журнал. 2016. № 2 (9). C. 138144.

6. Аристотель. Этика. Политика. Риторика. Поэтика. Категории. / Аристотель. Минск: Литература, 1998. 1392 с.

7. Беклемишев Л. Д. Теоремы Геделя о неполноте и границы их применимости. I // Успехи математических наук. 2010. № 5 (65). C. 61106.

8. Бену А. Символизм сказок и мифов народов мира. Человек - это миф, сказка - это ты. М.: Алисторус, 2011. 520 с.

9. Бердяев Н. А. Смысл истории. М.: Мысль, 1990. 170 с.

10. Бердяев Н. А. Судьба человека в современном мире и новый мир. 1990. № 1. - С. 219.

11. Бердяев Н. А. Царство духа и царство кесаря. М.: Республика, 1990. 252 с.

12. Бердяев Н. А. Человек и машина (проблема социологии и метафизики техники) (извлечение). // Вестник Университета имени О.Е. Кутафина (МГЮА). 2022. № 4. С. 246-256.

13. Бойко О. А. Учение Платона о душе // Международный журнал гуманитарных и естественных наук. 2021. № 61 (10-1). C. 67-72.

14. Бондарева Я. В., Завьялов А.С. Цифровое инфопространство и его характеристики // Сибирский учитель. 2016. № 3. С. 35-38.

15. Бостром Н. Искусственный интеллект. Этапы. Угрозы. Стратегии / Н. Бостром; пер. с англ. С. Филина. / Н. Бостром. М.: Манн, Иванов и Фербер, 2016. 496 с.

16. Булычев И.И. Естественный разум и искусственный интеллект: различие в единстве // Метафилософия сознания. Ноосферные исследования. 2020. №1. C. 50-59.

17. Буренок В. М. Новая парадигма силового противостояния государств на основе применения искусственного интеллекта // Вооружение и экономика. 2020. № 52 (2). C. 4-8.

18. Васильев В. В. Трудная проблема сознания. М.: Прогресс-Традиция, 2009. 272 с.

19. Витгенштейн Л. Избранные работы: Логико-философский трактат, Коричневая и Голубая книги. М.: Территория будущего, 2005. 440 с.

20. Власов В.Г. Апории Зенона и антиномии искусствознания // Общество. Среда. Развитие. 2014. №3. C. 52-55.

21. Волкова Н. П. «Мера вещей» Протагора как критерий истины // ХХОЛН. 2019. № 2 (13). C. 696-704.

22. Волобуев А.В. Философские проблемы развития искусственного интеллекта // Философские проблемы развития искусственного интеллекта: Коллективная монография / Под ред. А. В. Волобуева, Н.А. Ореховской. 2019. C. 7-24.

23. Галкин Д. В., Коляндра П.А., Степанов А. В. Состояние и перспективы использования искусственного интеллекта в военном деле // Военная мысль. 2021. № 1. C. 113-124.

24. Гарднер Г. Структура разума: теория множественного интеллекта / Пер. с англ. А. Н. Свирид. М.: ООО «И. Д. Вильямс», 2007. 512 с.

25. Георгиу Т. С. Война, искусственный интеллект и человек: куда мы направляемся? // Современные философские исследования. 2023. N0 3. С. 76-85. DOI: 10.18384/2949-5148-2023-3-76-85

26. Георгиу Т. С. Искусственный интеллект: крупнейшее событие в истории или конец человечества. // Философские контексты современности: искусственный интеллект и интеллектуальная интуиция. Материалы II Всерос. научно-практической конф., конференции с международным участием. Отв. редактор Н. Б. Полякова, сост. А. А. Шамшурин. Ижевск, 2022. С. 12-16.

27. Георгиу Т. С. Социальные риски искусственного интеллекта: философское осмысление и безопасность. / Междисциплинарность в современном социально - гуманитарном знании - 2021 (Социальные технологии, коллективные ценности и экономические институты в цифровом мире): материалы Шестой международной научной конференции (Ростов-на-Дону, 22-24 июня 2021 г.): в 2 ч. / Южный федеральный университет; [отв. ред. Е. Ю. Баженова]. Ростов-на-Дону; Таганрог: Издательство Южного федерального университета, 2021. С. 298-308

28. Георгиу Т. С. Философия автоматизации и искусственного интеллекта: от мифологического Талоса до будущих киборгов // Вестник Московского государственного областного университета. Серия: Философские науки. 2022. № 1. С. 68-75.

29. Георгиу Т.С. Искусственный интеллект: угрожает ли он существованию человека? // Междисциплинарный подход к подготовке современного педагога: от теории к практике. Сборник научных трудов молодых ученых. Под ред. Н. А. Горловой. М.: Перспектива, 2023. С. 73-79.

30. Георгиу Т.С. Решение проблемы «сознание-тело» и искусственный интеллект // Вестник Тверского государственного университета. Серия: Философия. 2022. № 62 (4). С. 32-45.

31. Георгиу Т.С. Философские вопросы искусственного интеллекта и доверия «умным» алгоритмам в медицине // Медицинская этика. 2021. № 3. С. 40-42.

32. Гераклит Эфесский: все наследие: на языке оригинала и рус. пер. / Подготовил С. Н. Муравьев. М.: Ад Маргинем Пресс, 2012. 416 с.

33. Глухов Е. А. О правовом регулировании применения искусственного интеллекта в военной сфере // Военная мысль. 2022. № 8. С. 73-85.

34. Гоббс Т. Левиафан / пер. с англ. А. Гутермана; вступ. ст. А. Филиппова / Т. Гоббс. М.: РИПОЛ классик, 2017. 608 с.

35. Гоббс Т. Сочинения в 2-х т.: Т. 2 / Сост., ред., авт. примеч. В. В. Соколов; Пер. с лат. и англ. М.: Мысль, 1991. 731 с.

36. Горбунов А.С. Личность и цифровые технологии в информационном массовом обществе // Вестник Московского государственного областного университета. Сер.: Философские науки. 2018. № 4. С. 8-16.

37. Городецкий В. И., Юсупов Р. М. Искусственный интеллект - наука и информационная технология: настоящее и будущее // 13-я мультиконференция по проблемам управления: материалы науч. конф., СПб, 06-08 октября 2020 г. / СПб.: Из-ство: Концерн Центральный научно-исследовательский институт «Электроприбор», 2020. С. 10-21.

38. Гриненко Г. В. История философии в 2 ч. Часть 1. От Древнего мира до эпохи Просвещения: учебник для вузов / Г. В. Гриненко. 4-е изд., перераб. и доп. М.: Юрайт, 2020. 290 с.

39. Гудфеллоу Я., Бенджио И., Курвилль А. Глубокое обучение / пер. с англ.

A. А. Слинкина. 2-е изд., испр. М.: ДМК Пресс, 2018. 652 с.

40. Декарт Р. Сочинения в 2 т.: пер. с лат. и фр. Т. 2 / сост., ред. и примеч. В.

B. Соколова. М.: Мысль, 1994. 633 с.

41. Дубровский Д. И. Обман. Философско-психологический анализ. М.: РЭЙ, 1994. 199 с.

42. Дубровский Д. И. Сознание, мозг, искусственный интеллект. М.: Стратегия центр, 2007. 249 с.

43. Душкин Р. В. Критика «Китайской комнаты» Дж. Сёрла с позиции гибридной модели построения искусственных когнитивных агентов // Сибирский философский журнал. 2020. № 2 (18). С. 30-47.

44. Елхова О. И. Фрактальный принцип виртуальной реальности // Искусственный интеллект, искусственная жизнь, информационные технологии: Материалы всерос. науч. конф., Пермь, 22 октября 2007 г. Пермь: Изд-во ПГТУ, 2008. С. 19-26.

45. Есипова Н. Д. Экзистенциальные вопросы: личностный ответ // Ученые записки Орловского государственного университета. 2013. № 55 (5). С. 72-75.

46. Ильичев Ф., Федосеев П. Н. Философский энциклопедический словарь. М.: Советская энциклопедия, 1983. 840 с.

47. Имамеева Р.Д. Риски создания и функционирования искусственного интеллекта в медицине // Вестник Московского университета имени С.Ю. Витте. Серия 2. Юридические науки. 2021. № 1 (27). С.33-40.

48. Каганов Ю.Т., Оселедчик М.Б. Нелинейная динамика и происхождение познавательной способности интеллектуальных систем // Гуманитарный вестник, 2021, вып. 4. http://dx.doi.org/ DOI: 10.18698/2306-8477-2021-4736

49. Каганов Ю.Т., Оселедчик М.Б. Полисемиотика когнитивных процессов и проблема генезиса сознания //

50. Казакова И. А. История вычислительной техники: учеб. пособие. Пенза: Изд-во ПГУ, 2011. 232 с.

51. Канышева О. А. Учение Рене Декарта о душе и сознании // Вестник ВГУ. Серия: Философия. 2021. № 3. С. 99-107.

52. Кожевников Н. Н. Личность в экзистенциализме и персонализме // Наука и техника в Якутии. 2009. № 1 (16). С. 104-110.

53. Кожевникова М., Карпова С. В. Искусственный интеллект: субъект и объект // Этнографическое обозрение. 2020. № 1. С. 80-94.

54. Косоуров Д. А. Применение искусственного интеллекта в области вооружения. // Искусственный интеллект: философия, методология, инновации материалы IV Всерос. конф. студентов, аспирантов и молодых ученых, ч. 2., г. Москва, 10-12 ноября 2010 г. М.: МИРЭА, 2010. C. 58-60.

55. Крайнов А. Л. Цифровой тоталитаризм как следствие развития информационного общества. // Философия и культура информационного общества. СПб.: Санкт-Петербургский государственный университет аэрокосмического приборостроения, Институт философии НАН Беларуси [и др.]. 2019. C. 74-76.

56. Круглова Л. К. Человек как проблема философии, философии культуры и культурологии // Человек, культура, образование. 2015. № 16 (2). C. 3352.

57. Кудряшев А. Ф., Елхова О. И. Процесс творчества в системах с искусственным интеллектом // Вестник Башкирского университета / Философия, социология, культурология и политология. 2016. № 4 (21). C. 1124-1129.

58. Кукшев В.И. Классификация систем искусственного интеллекта // Цифровое общество. 2020. № 144. C. 58-67.

59. Лазинина Е.В. Цифровая реальность в контексте процессов коммуникации и экзистенции человека // Современные исследования социальных проблем. 2019. № 2 (11). C. 78-90.

60. Леменкова П. А. Эволюция взглядов Аристотеля на проблему человека и окружающего мира // HAL open science. 2016. C. 144-158.

61. Лобанов Е. В. Платон и Аристотель о «праве войны» // Знание. Понимание. Умение. 2015. № 1. C. 304-310.

62. Лосев А. Ф., Тахо-Годи А. А. Платон. Аристотель (3-е изд., испр. и доп.). М.: Молодая Гвардия, 2005. 392 с.

63. Малькова Т. П. Киборгизация: онтологические проблемы исследования // Манускрипт. 2018. № 3. C. 87-92.

64. Марголин И. Д., Дубовская Н. П. Основные этапы развития искусственного интеллекта // Молодой ученый. 2018. № 206 (20). С. 2326.

65. Миндигулова А. А. Этика и искусственный интеллект: проблемы и противоречия // Медицина. Социология. Философия. Пригладные исследования. 2022. № 3. С. 146-150.

66. Моисеев Н. Н. Судьба цивилизации. Путь Разума. М.: Языки русской культуры, 2000. 226 с.

67. Моисеев Н. Н. Человек во Вселенной и на Земле: (по поводу книги И. Т. Фролова «О человеке и гуманизме») // Вопросы философии. 1990. № 6. С. 32-45.

68. Назаров Н. А. Машинное творчество и право: две части одного целого // Труды по интеллектуальной собственности. 2022. № 4 (43). С. 101-110.

69. ОКоннелл М. Искусственный интеллект и будущее человечества / пер. М. Кудряшова. М.: Бомбора, 2019. 280 с.

70. Огольцова Е. Г. Теория интеллекта Ж. Пиаже // Молодой ученый. 2022. № 445 (50). С. 491-492.

71.Оселедчик М.Б. Истоки когнитивного неравенства // Гуманитарный вестник. 2023. № 3 (101).

72. Осташевский А.В., Погорелова А. А. Фрэнсис Бэкон и «идолы» фейков // Социально-гуманитарный вестник / Всероссийский сборник научных трудов. 2020. Выпуск 26. С. 114-119.

73. Панасенко Г. В. Философское понятие личности // Вестник ИрГТУ 2012. № 67 (8). С. 320-325.

74. Паршин А. Б. Понимание души в учениях Платона и Аристотеля // Научный электронный журнал Меридиан. 2020. № 45 (11). С. 219-221.

75. Патнэм Х. Разум, истина и история / Пер. с англ. Т.А. Дмитриева, М.В. Лебедева. М.: Праксис, 2002. 296 с.

76. Пенроуз Р. Новый ум короля: о компьютерах, мышлении и законах физики. / перев. с англ. В. О Малышенко. Предисл. Г. Г. Малинецкого. М.: Синергетика: от прошлого к будущему, 2020. 416 с.

77. Платон. Собрание сочинений в 4 т. Т. 2/ Общ. ред. А. Ф. Лосева, В. Ф. Асмуса, А. А. Тахо-Годи; Примеч. А. Ф. Лосева и А. А. Тахо-Годи; Пер. с древнегреч. М.: Мысль, 1993. 528 с.

78. Платонов Р. С. Основные проблемы этики Аристотеля в историко-философском исследовании // Философская мысль. 2019. № 10 (10). С. 54-72.

79. Подколзина М. А. Арифметизация математической логики // в сборнике Институт истории естествознания и техники им. С. И. Вавилова. Годичная научная конференция, 2020 г. М.: ИИЕТ РАН. С. 197-201

80. Пройдаков Э. М. Современное состояние искусственного интеллекта // Цифровая экономика. 2018. № 3 (3). С. 129-153.

81. Разин А. В. Этика искусственного интеллекта // Философия и Общество. 2019. № 1 (90). С. 57-73. Doi: https://doi.org/10.30884/jfio/2019.01.04

82. Рассел Б. Искусство мыслить. М.: Идея-Пресс: Дом интеллектуальной книги, 1999. 240 с.

83. Резаев А. В., Трегубова Н. Д. «Искусственный интеллект», «онлайн-культура», «искусственная социальность»: определение понятий «искусственный // Мониторинг общественного мнения: Экономические и социальные перемены. 2019. № 6 (154). С. 35-47.

84. Рюмина М. Т. Цифровое общество и проблема человека // Науковедческие исследования. 2020. № 1. С. 79-89.

85. Самусева О. А. Социальный рейтинг как системная характеристика политической надежности в китайском обществе // Социально-гуманитарные знания. 2019. № 6. С. 349-361.

86. Сартр Ж. П. Бытие и ничто: Опыт феноменологической онтологии / Пер. с фр., предисл., примеч. В. И. Колядко. М.: Республика, 2000. 639 с.

87. Скворцов А. А. Дж. Дж. Томсон: Убийство, позволение умереть и проблема трамвая // Философия и общество. 2019. № 93 (4). С. 135-157.

88. Скворцов А. А. Филиппа Фут: Проблема аборта и доктрина двойного эффекта // Философия и общество. 2018. № 87 (2). С. 124-141.

89. Смирнов Е. В. Аргумент китайской комнаты в защиту «сильного» естественного интеллекта / Е. В. Смирнов // Вопросы экономики, управления и права в контексте философско-антропологической парадигмы: Сборник статей всероссийской научно-теоретической конференции, под ред. Д. А. Яковлева. Магнитогорск: УРаГС, 2010. С. 197-203.

90. Смирнов Е. В. Китайская комната, китайский робот и «системный» ответ: перспективы «сильного» искусственного интеллекта // Философия и культура. М.: Институт философии РАН, 2012. № 2. С. 91-97.

91. Смирнов Е. В. Машина Тьюринга и человек: онто-гносеологический аспект компьютерной метафоры сознания // Философия и культура. 2012. № 3. С. 115-123

92. Смирнов Е. В. Проблема искусственного интеллекта: онтологические и гносеологические аспекты: авт-т дисс... канд. филос. наук. / Е. В. Смирнов. - Магнитогорск, 2012. 23 с.

93. Смирнов Е. В. Проблема установления онтологического статуса искусственного интеллекта в контексте решения «трудной проблемы сознания» / Е. В. Смирнов // Наука - вуз - школа: Сборник научных трудов молодых исследователей / Под ред. З.М. Уметбаева, А.М. Колобовой, Е.В. Гавриловой. Магнитогорск: МаГУ, 2010. Вып. 15. С. 165-170.

94. Смирнов Е. В. Роль философско-психологических идей ХУИ-ХУШ вв. в современной философии сознания // Вестник Челябинского государственного университета. Философия. Социология. Культурология. 2012. № 24. С. 65-71.

95. Смирнов Г.С., Никифоров А.С. Планетарная цефализация: органический и электронный глобальный разум (пути языкового сближения) // Вестн.Сев.(Арктич.) федер. Ун-та. Сер.: Гуманит. и соц.науки. 2018. № 1. С.84-92. DOI: 10.17239^п2227-6564.2018.1.84.

96. Соловьева В. В. К вопросу о теории справедливости Джона Ролза // Актуальные проблемы государства и права. 2022. № 2 (6). С. 167-177.

97. Солопова М. А. Евбулид // Античная философия: Энциклопедический словарь. М.: Прогресс-Традиция, 2008. 357-358 с.

98. Степанович В. А., Климович А. В. Философия. Философия и методология науки (понятия, категории, проблемы, школы, направления): терминологический словарь-справочник: словарь читать онлайн и в мобильном приложении ЭБС Университетская Библиотека Онлайн. / В. А. Степанович, А. В. Климович, под ред. В. А. Степановича, Москва, Берлин: Директ-Медиа, 2017. 276 с.

99. Тарасов А. Г. Декарт о природе души: «мыслящая субстанция» или «идея тела»? // Научные ведомости. 2007. № 40 (9). С. 24-30.

100. Троешестова Д. А., Абруков В.С., Степанов А. Г. Проблема становления системы взаимодействия организационных структур естественного и искусственного интеллектов в информационном обществе // Вестник Чувашского университета. 2012. (1). С. 116-122.

101. Туробов А. В., Чумакова М. А., Вечерин А. В. Международный опыт применения математико-статистических алгоритмов прогнозирования преступности // Международные процессы. 2019. № 4 (17). С. 153-177.

102. Тьюринг А. Игра в имитацию: о шифрах, кодах и искусственном интеллекте / пер. с англ. Ю Данилова. М.: Родина. 2019. 192 с.

103. Уайтхед А. Н., Рассел Б. Основания математики: в 3 т. / пер. с англ. Ю. Н. Радаева, И. С. Фролова; под ред. Г. П. Ярового, Ю. Н. Радаева. Самара: Самарский ун-т, 2005. Т. 1. 722 с.; 2006. Т. 2. 728 с.; 2006. Т. 3. 60 с.

104. Усманов Ж. Б. Понятие "достоинство человека" и его научно-философская сущность // Молодой ученый. // Молодой ученый. 2015. № 90 (10). C. 1530-1532.

105. Ушаков Д. В. Интеллект: структурно-динамическая теория. М.: Институт психологии РАН, 2003. 264 с.

106. Филипова И. А. Искусственный интеллект и нейротехнологии: потребности в конституционно правовом регулировании // Lex Russica, Том 74. 2021. № 178 (9). C. 119-130.

107. Флах П. Машинное обучение. Наука и искусство построения алгоритмов, которые извлекают знания из данных / пер. А. А. Слинкин. М.: Литрес, 2017. 402 с.

108. Фролов И. Т. О человеке и гуманизме: Работы разных лет. М.: Политиздат, 1989. 559 с.

109. Черниговская Т. В. Искусственный интеллект научился блефовать // Атомный эксперт. 2018. № 62 (1). C. 8-9.

110. Черниговская Т. В. Язык, мозг и компьютерная метафора // Человек. 2007. № 2. С. 63-75.

111. Черногор Н. Н. Искусственный интеллект и его роль в трансформации современного правопорядка // Журнал российского права. 2022. Т. 26. № 4. С.5-15.

112. Четверикова О. Н. Цифровой тоталитаризм. Как это делается в России. М.: Благословение, 2019. 320 с.

113. Четверикова О. Н. Трансгуманизм в российском образовании. Наши дети как товар. 2-е изд. М.: Книжный мир, 2021. 440 с.

114. Чораян О. Г. Естественный интеллект (физиологические, психологические и кибернетические аспекты) / Учебное пособие для студентов высших учебных заведений. Под редакцией Г. А. Кураев / О. Г. Чораян, Ростов-на-Дону: РГУ, 2002. 112 с.

115. Чулюкова С.А., Чулюкова Н.А. Искусственный интеллект и креативное мышление в оценке объектов недвижимости в Российской Федерации // Юридическая гносеология. 2022. № 4. С.92-99.

116. Шерстобитова П. Д. Тело - разум (Т. Нагель. «Что значит быть летучей мышью?») // Молодой ученый. 2016. № 120 (16). C. 520-521.

117. Эдмондс Д. Убили бы вы толстяка? Задача о вагонетке: что такое хорошо и что такое плохо? / Пер. Д. Кралечкин. М.: Издательство института Гайдара, 2019. 264 с.

118. Эскиндаров М.А., Масленников В. В., Масленников О. В. Риски и шансы цифровой экономики в России // Финансы: теория и практика. 2019. № 5 (23). С. 6-17

119. Юм Д. Исследование о человеческом разумении. М.: Эксмо, 2018. 220 c.

120. Юм Д. Сочинения в 2т. Т2/ пер. с англ. С. И. Церетели и др.; Примеч. И. С. Нарского. 2-е издание дополн. и испр. М.: Мысль, 1996. 799 с.

121. Awad E. [et al.]. The Moral Machine experiment // Nature. 2018. № 7729 (563). P. 59-64.

122. Awad E. [et al.]. The Thorny Challenge of Making Moral Machines: Ethical Dilemmas with Self-Driving Cars // NIM Marketing Intelligence Review. 2019. № 2 (11). P. 42-47.

123. Bird E. [et al.]. The ethics of artificial intelligence: Issues and initiatives / E. Bird, J. Fox-Skelly, N. Jenner, R. Larbey, E. Weitkamp, [et al.]., EPRS | European Parliamentary Research Service, 2020. 113 p.

124. Boole G. The Mathematical Analysis of Logic, 1847.

125. Bostrom N., Yudkowsky E. The ethics of artificial intelligence / N. Bostrom, E. Yudkowsky. Cambridge: Cambridge University Press, 2011. 20 p.

126. Chalmers D. The Conscious Mind: In Search of a Fundamental Theory / Chalmers D., New York: Oxford University Press, 1997. 432 p.

127. Clark M. Paradoxes from A to Z / 2nd Edition / M. Clark, London: Routledge, 2007. 253 p.

128

129

130

131

132

133

134

135

136

137.

138

139

140

141

142

Dashkov A. A., Nesterova Yu. O. Building trust when using artificial intelligence // E-Management. 2021. № 2 (4). C. 28-36. David E. E., Selfridge O.G. Eyes and Ears for Computers // Proceedings of the IRE. 1962. № 5 (50). P. 1093-1101.

Dennett D. C. Content and Consciousness // Journal of Philosophy. 1972. № 18 (69). P. 604-604.

Dennett D.C. Brainstorms: Philosophical Essays on Mind and Psychology. -Massachusetts: MIT Press, 2017. 440 p.

Dennett D.C. Where Am I? - Massachusetts: The MIT Press, 1978. 8 p. Eldridge-Smith P., Eldridge-Smith V. The Pinocchio paradox // Analysis. 2010. № 2 (70). P. 212-215.

Floridi L. [et al.]. AI4People-An Ethical Framework for a Good AI Society: Opportunities, Risks, Principles, and Recommendations // Minds and Machines. 2018. № 28. P. 689-707.

Floridi L. What the Near Future of Artificial Intelligence Could Be // Philosophy & Technology. 2019. (32). P. 1-15.

Foot Ph. The Problem of Abortion and the Doctrine of the Double Effect in Virtues and Vices // Oxford Review. 1967. № 5. P. 5-15. Godel K. On Formally Undecidable Propositions of Principia Mathematica and Related Systems I (1931). New York: Dover Publications, Inc., 1992. 79 p. Graziano M. S. A. Rethinking consciousness: scientific theory of subjective experience. New York: W. W. Norton & Company, 2019. 224 p. Hacker P.M.S Wittgenstein: On Human Nature. London: Routledge, 1998. 56 p.

Jackson F. Epiphenomenal Qualia // The Philosophical Quarterly. 1982. № 127 (32). P. 127-136.

Jackson F. What Mary Didn't Know // Source: The Journal of Philosophy. 1986. № 5 (83). P. 291-295.

Jefferson G. The mind of mechanical man // British Medical Journal. 1949. P. 1105-1110.

143. Kurzweil R. The Singularity Is Near: When Humans Transcend Biology. New York: Viking, 2005. 652 p.

144. McCarthy J. [et al.]. A proposal for the Dartmouth summer research project on artificial intelligence: August 31, 1955 // AI Magazine. 2006. № 4 (27). P. 12-14.

145. Mcculloch W. S., Pitts W. A logical calculus nervous activity // Bulletin of Mathematical Biophysics. 1943. № 5. P. 115-133.

146. McLuhan M. Understanding Media: The Extensions of Man. New York: McGraw Hill, 1964. 318 p.

147. Miller E. K., Cohen J. D. An integrative theory of prefrontal cortex function // Annual review of neuroscience. 2001. № 24 (1). P. 167-202.

148. Minsky M.L., Papert S.A. Perceptrons: An Introduction to Computational Geometry. Massachusetts: MIT, 1969. 292 c.

149. Müller V. C., Simpson T. Autonomous killer robots are probably good news // Robophilosophy. 2016. № 1. P. 67-81.

150. Nagel T. Philosophical Review What Is It Like to Be a Bat? // Source: The Philosophical Review. 1974. № 4 (83). P. 435-450.

151. Nuffield Council on Bioethics. Artificial intelligence (AI) in healthcare and research. London: Nuffield Council on Bioethics Artificial intelligence, 2018. 8 p.

152. Oleksiewicz I., Civelek M.E. From artificial intelligence to artificial consciousness: possible legal bases for the human-robot relationships in the future. // International Journal of Advanced Research. 2019. № 3 (7). P. 254-263.

153. Russel St., Norvig P. Artificial Intelligence: A Modern Approach / Russel St., Norvig P., 4th Edition, Hoboken: Pearson, 2020. 1136 c.

154. Searle J. R. Minds, brains, and programs. // Behavioral and Brain Sciences. 1980. № 3 (3). P. 417-424. D0I:10.1017/S0140525X00005756.

155. Siau K., Wang W. Artificial Intelligence (AI) Ethics: Ethics of AI and Ethical AI // Journal of Database Management. 2020. № 2 (37). P. 74-87.

156. Thomson J. J. Killing, Letting Die, and the Trolley Problem // Monist. 1976. № 2 (59). P. 204-217.

157. Turing A. M. Computing machinery and intelligence // Mind. 1950. № 236 (59). P. 433-460.

158. Wang W., Siau K. Artificial intelligence, machine learning, automation, robotics, future of work and future of humanity: A review and research agenda // Journal of Database Management. 2019. № 1 (30). P. 61-79.

159. Warwick K. Cyborg morals, cyborg values, cyborg ethics // Ethics and Information Technology. 2003. № 3 (5). P. 131-137.

160. Yorick W. Artificial Intelligence: Modern Magic or Dangerous Future? / Yorick W., London: Icon Books, 2019. 179 p.

161. Zhang B., Zhu J., Su H. Toward the third generation artificial intelligence // Science China Information Sciences. 2023. P. 121101:1-121101:19 https://doi.org/10.1007/s11432-021-3449-x

Электронные ресурсы

162. Аверкин А. Н., Гаазе-Рапопорт М. Г., Поспелов Д. А. Толковый словарь по искусственному интеллекту | РАИИ URL: https://raai.org/ pages/UGFnZVR5cGU6MTAwMw==#L208 (дата обращения: 08.08.2024).

163. Алексеева Е. А. Противостояние символизма и коннекционизма в истории развития искусственного интеллекта // Электронный научно -образовательный журнал «История». 2020. T. 11. Выпуск 11 (97). URL: https://history.jes.su/s207987840013021 -2-1/. DOI: 10.18254/S2079878400 13021-2.

164. Анохин К. В. Естественные нейронные сети: как они устроены и что они могут. URL: https://www.youtube.com/watch?v=vD0dsueTGS0&t=6s (дата обращения: 24.09.2023).

165. Анохин К. В. Сознание у искусственного интеллекта? URL: https://vk.com/video-41184973_456239572?t=1h20m1s (дата обращения: 05.01.2024).

166. Апресян Р. Г. Утилитаризм // Электронная библиотека ИФ РАН URL: https://iphlib.ru/library/collection/newphilenc/document/HASH01018ed26f4d 1aedc1392301 (дата обращения: 24.09.2023).

167. Апресян Р. Г., Артемьева О. В., Максимов Л. В. Проблемы этики. О систематизации этического знания // Философские науки. No 1. 1997. URL: https://iphras.ru/uplfile/ethics/biblio/ Apressyan/problemy_eth.html(дата обращения: 24.09.2023).

168. Аристотель. О душе 413 а 9) http://filosof.historic.ru/books/ item/f00/s00/z0000352/st001 .shtml (дата обращения: 24.09.2023).

169. Бердяев Н. А. Философия неравенства. Письмо Одиннадцатое. О войне. // Библиотека «Вехи». URL: http://www.vehi.net/berdyaev/neraven/11.html (дата обращения: 28.07.2023).

170. Бородай Т. Ю. Материя [Электронный ресурс]. URL: https://iphlib.ru/library/collection/newphilenc/document/HASH01 a2e36ebf71 2afcc7be65a2 (дата обращения: 23.07.2022).

171. Гусев А. В. Этика цифровой медицины // Этика и «цифра»: этические проблемы цифровых технологий. URL: https://ethics.cdto.center/7_2#7.2.2 (дата обращения: 24.07.2021).

172. Зубарев В. Г. История древней центральной и южной Америки. Древние цивилизации Мезоамерики (Часть II) // Тульский государственный педагогический университет им Л. Н. Толстого Кафедра всеобщей истории и арехологии. URL: https://tsput.ru/res/hist/history/lec2_2.html (дата обращения: 31.07.2023).

173. Зубарев В. Г. Путешествие во времени: История древней центральной и южной Америки // Общество путешественников «География». URL: https://www.geografia.ru/story-amerika.html (дата обращения: 31.07.2023).

174. Ильичев Ф. Ф. П. Н. Софистика. URL: https://iphlib.ru/library/collection/newphilenc/document/HASHde7f3caa66a6 baa4acdcde (дата обращения: 27.03.2021).

175. Кехлан-Джонс Р. Хокинг: искусственный интеллект - угроза человечеству | Би-би-си, 2014. URL: https: //www.bbc.com/russian/science/2014/12/141202_hawking_ai_danger ((дата обращения: 18.09.2022).

176. Левин Г. Д. Софистика | Электронная библиотека Института философии РАН / Новая философская энциклопедия. URL: https://iphlib.ru/library/collection/newphilenc/document/HASHde7f3caa66a6 baa4acdcde (дата обращения: 27.03.2021).

177. Лекторский В. А. Сознание. URL: https://iphlib.ru/library/collection/newphilenc/document/HASH01089449209f c347f3553108?p.s=TextQuery (дата обращения: 15.10.2022).

178. Логика | Гуманитарный портал. URL: https://gtmarket.ru/concepts/6892 (дата обращения: 27.03.2021).

179. Луньков А. Проблема стандартизации этики искусственного интеллекта // Искусственные общества. 2020. T. 15. Выпуск 2. URL: https://artsoc.jes.su/s207751800009044-7-1/ (дата обращения: 28.04.2021). D0I:10.18254/S207751800009044-7

180. Максимов Л. В. Деонтология. 2018. URL: https://iphlib.ru/library/collection/newphilenc/document/HASH015cc25c3636 8caea0a5d95c (дата обращения: 28.08.2023).

181. Митрополит Иларион. Что означает «В начале было Слово»? -Православный портал о Христе и христианстве «Иисус». URL: https://jesus-portal.ru/way/answers/chto-oznachaet-v-nachale-bylo-slovo-/ (дата обращения: 15.09.2023).

182. Платон. Евтифрон /перевод Жебелев С. А. / Платон, 32 c. URL:https://plato.spbu.ru/TEXTS/PLAT0/Academia/001 -02.pdf (дата обращения: 23.02.2024).

183. Равочкин Н. Н. Социально-философский взгляд на взаимодействие цифровизации и политико-правовых институтов // Искусственные общества. 2019. ^м 14. Выпуск 3. URL:

https://artsoc.jes.su/S207751800007024-5-1 (дата обращения: 19.11.2023). DOI: 10.18254/S207751800007024-5

184. Разин А. В. Этика: немного теории // Этика и «цифра»: Этические проблемы цифровых технологий. URL: https://ethics.cdto.center/1_2 (дата обращения: 18.08.2023).

185. Решетникова М. Что такое ChatGPT и на что он способен: от кода до стихов и диалогов | РБК Тренды, 2023. URL: https://trends.rbc.ru/trends/industry/63a192819a79478fae5762ad (дата обращения: 18.09.2023).

186. Суворов О. В. Интеллект | Институт Философии Российской Академии Наук. URL: https://iphlib.ru/library/collection/newphilenc/document/HASH523b26975f21 f2447bc452 (дата обращения: 15.11.2023).

187. Тиллих П. Мужество быть / пер. с англ. О. Седаковой [Электронный ресурс]. URL: http://www.odinblago.ru/muzhestvo_bit (дата обращения: 16.09.2023).

188. Черниговская Т.В. Естественный и искусственный интеллект | Искусство жить, 2023. URL: https://www.youtube.com/watch?v=X9rz10vgQnQ&t=1969s (дата обращения: 10.11.2023)

189. Черниговская Т.В. Искусственный интеллект: проблемы этики. | Искусство жить, 2023. URL: https://www.youtube.com/watch?v=X_AH4A_SLqo (дата обращения: 15.12.2023)

190. Черниговская Т.В. Язык и мозг: XXI век. | Искусство жить, 2023. URL: https://www.youtube.com/watch?v=X37maD4bMQU (дата обращения: 17.09.2023).

191. Чонгки К. Генеративный искусственный интеллект: чем он является, чем нет, и чем он может быть полезен | Организация Объединенных Наций. URL: https://www.un.org/ru/208165 (дата обращения: 07.10.2023).

192. Этика. Общий курс. URL: https://iphras.rU/uplfile/ethics/prog/ethics_g1.html#22 (дата обращения: 18.08.2023).

193. Awad E. [et al.]. The Moral Machine. URL: https://www.moralmachine.net/ (дата обращения: 29.07.2023).

194. AWS. Что такое генеративный ИИ? URL: https://aws.amazon.com/ru/what-is/generative-ai/ (дата обращения: 08.10.2023).

195. Chesscom. Каспаров против Deep Blue | Матч, изменивший историю. URL: https://www.chess.com/ru/article/view/kasparov-protiv-deep-blue-match-izmenivshii-istoriiu (дата обращения: 09.04.2021).

196. Douglas J. Apple Card algo issue and the future of AI in your everyday life. URL: https://www.cnbc.com/2019/! 1/14/apple-card-algo-affair-and-the-future-of-ai-in-your-everyday-life.html (дата обращения: 10.11.2022).

197. Hickey L.P. The Brain in a Vat Argument | Internet Encyclopedia of Philosophy // The Internet Encyclopedia of Philosophy. URL: https://iep.utm.edu/brain-in-a-vat-argument/.

198. Intentionality | Stanford Encyclopedia of PhilosophyURL: https: //plato .stanford. edu/entries/intentionality/#WhyInteSoCall (дата обращения: 29.09.2023).

199. Jeffrey D. Amazon scraps secret AI recruiting tool that showed bias against women | Reuters. URL: https://www.reuters.com/article/us-amazon-com-jobs-automation-insight/amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-idUSKCN1MK08G.

200. Klement R. C. Russell's Paradox | Internet Encyclopedia of Philosophy. URL: https://iep.utm.edu/par-russ/ (дата обращения: 20.11.2023).

201. Oracle. Что такое чат-бот? | Oracle СНГ. URL: https://www.oracle.com/cis/chatbots/what-is-a-chatbot/ (дата обращения: 08.11.2022).

202. Panetta K. 5 Trends Drive the Gartner Hype Cycle for Emerging Technologies | Gardner, 2021. URL: https://www.gartner.com/smarterwithgartner/5-trends-

drive-the-gartner-hype-cycle-for-emerging-technologies-2020/ (дата

обращения: 05.04.2021).

203. Panetta K. Prepare for the Future of AI-Powered Customers | Gardner, 2023. URL: https://www. gartner.com/en/articles/prepare-for-the-future-of-ai-powered-customers (дата обращения: 17.09.2023).

204. Perri L. What's New in Artificial Intelligence From the 2023 Gartner Hype CycleTM | Gardner, 2023. URL: https://www.gartner.com/en/articles/what-s-new-in-artificial-intelligence-from-the-2023-gartner-hype-cycle (дата обращения: 17.09.2023).

205. Rimol M., Howley C. Gartner Identifies the Top 10 Strategic Technology Trends for 2023 | Gardner URL: https://www.gartner.com/en/newsroom/press-releases/2022-10- 17-gartner-identifies-the-top- 10-strategic-technology-trends-for-2023 (дата обращения: 17.09.2023).

206. Sunny M. Musk's Neuralink to start human trial of brain implant for paralysis patients | Reuters URL: https://www.reuters.com/technology/musks-neuralink-start-human-trials-brain-implant-2023-09-19/ (дата обращения: 30.09.2023).

207. Wolfram St. What Is ChatGPT Doing ... and Why Does It Work? URL: https://writings.stephenwolfram.com/2023/02/what-is-chatgpt-doing-and-why-does-it-work/ (дата обращения: 09.09.2023).

Нормативные правовые акты и документы

208. Всеобщая декларация прав человека. М: Права человека, 1996. 16 с.

209. ООН. Всеобщая декларация прав человека | Организация Объединенных Наций / Принята резолюцией 217 А (III) Генеральной Ассамблеи ООН от 10 декабря 1948 года. URL: https: //www.un.org/ru/documents/decl_conv/declarations/declhr.shtml (дата обращения: 21.09.2023).

210. Указ Президента Российской Федерации от 10.10.2019 г. № 490 «О развитии искусственного интеллекта в Российской Федерации». URL: http://www.kremlin.ru/acts/bank/44731 (дата обращения: 04.04.2021).

211. R. v. Parks - SCC Cases | Supreme Court of Canada. URL: https://scc-csc.lexum.com/scc-csc/scc-csc/en/item/907/index.do (дата обращения: 29.09.2023).

Обратите внимание, представленные выше научные тексты размещены для ознакомления и получены посредством распознавания оригинальных текстов диссертаций (OCR). В связи с чем, в них могут содержаться ошибки, связанные с несовершенством алгоритмов распознавания. В PDF файлах диссертаций и авторефератов, которые мы доставляем, подобных ошибок нет.