Обзор и анализ основных вопросов этики искусственного интеллекта


скачать Автор: Коломийцев С. Ю. - подписаться на статьи автора
Журнал: Философия и общество. Выпуск №3(116)/2025 - подписаться на статьи журнала

DOI: https://doi.org/10.30884/jfio/2025.03.06

Коломийцев Сергей Юрьевич – кандидат философских наук, доцент, доцент кафедры истории и философии гуманитарного факультета Санкт-Петербургского государственного университета аэрокосмического приборостроения. E-mail: kolomiytsev@yandex.ru.

Статья посвящена рассмотрению и анализу нового направления в прикладной этике – этики искусственного интеллекта (ИИ), ее основных вопросов и возможных путей их решений. Дается краткая история возникновения этики ИИ. Выделены основные вопросы, которые ставятся перед этикой ИИ: предвзятость и дискриминация, выравнивание ценностей, моральная свобода воли, прозрачность и объяснимость, дезинформация, кибератаки и создание вредоносного кода, вмешательство в свободу личности, авторское право, ответственность, дилемма между обучением нейронных сетей и необходимостью сбора персональных данных, а также приводится их общая классификация. Обозначены основные подходы к решению перечисленных проблем и сложности, возникающие при попытках их решения. Делается вывод, что единственного способа решения существующих этических проблем ИИ, в отличие от примерного перечня данных проблем, не существует, а подходы к этике ИИ и понимание данного направления отечественными и зарубежными учеными различаются. Исследование проводилось методом анализа и сравнения отечественной и иностранной научной литературы, а также новостных сайтов.

Ключевые слова: этика искусственного интеллекта (ИИ), прикладная этика, история этики ИИ, дискриминация, свобода, ответственность, отечественная наука, иностранная наука, дипфейки, генеративно-состязательные сети, нейронные сети.

Review and Analysis of the Main Issues in the Ethics of Artificial Intelligence

Sergey Yu. Kolomiytsev –St. Petersburg State University of Aerospace Instrumentation.

The article is devoted to the consideration and analysis of a new branch of applied ethics – AI ethics, its main issues, and possible ways of their solution. A brief history of the emergence of AI ethics is given. The main issues of AI ethics are highlighted: bias and discrimination, alignment of values, moral agency, transparency and explainability, disinformation, cyber-attacks and malicious code creation, interference with personal freedom, copyright, responsibility, and the dilemma between training neural networks and the need for personal information. General classification of issues of AI ethics is also provided. The main approaches to solving these issues and their difficulties are outlined. It is concluded that there is no single solution to the existing ethical problems of AI, while a list of these problems exiss. The difference between Russian and foreign approaches to AI ethics is described. The research is carried out by analyzing and comparing Russian and foreign scientific literature and news websites.

Keywords: AI ethics, applied ethics, history of AI ethics, discrimination, freedom, responsibility, Russian science, foreign science, deep fakes, generative adversarial networks, neural networks.

Этика искусственного интеллекта (ИИ) – это направление в при-кладной этике, уделяющее особое внимание этическим проблемам, возникающим в связи с разработкой, внедрением и использованием ИИ [High-Level… 2019: 9]. Необходимо обратить внимание, что при-веденное определение является широким, и часто этика ИИ из-за новизны и многогранности понятия интерпретируется по-разному, в более узких смыслах. Например, ряд исследователей из Университета штата Калифорния и Миссисипского государственного университета определяют этику ИИ как изучение того, что «правильно или неправильно, справедливо или несправедливо для ответственной разработки и внедрения технологий искусственного интеллекта» [Gao et al. 2024: 2], тогда как А. В. Разин обращает внимание на то, что рассуждения об этике ИИ невозможны без обсуждения вопроса о свободе воли, а сведение данной темы к одним только техническим ограничениям сведет этику ИИ просто к набору этических правил создания интеллектуальных систем [Разин 2019: 58–59]. Несмотря на то что некоторые подобные вопросы обсуждались еще в середине XX в. [Карпов и др. 2018: 87–88], а в СССР похожими вопросами занимался, например, В. О. Лобовиков [1988], словосочетание «этика ИИ» впервые появилось в научных статьях в 2008 г., а активно публикации на тему этики ИИ стали выходить только начиная примерно с 2017 г. [Gao et al. 2024: 4–5]. Поворотным моментом в развитии этики ИИ стали две публикации, выпущенные в 2016 г.: «Машинная предвзятость» [Angwin et al. 2016] и «Убийственные большие данные» [О’Нил 2018]. Первая статья посвящена рассмотрению приложения COMPAS, которое является алгорит-мом, предсказывающим по внешности человека вероятность того, что он станет преступником. Авторами статьи было обнаружено, что данное приложение, разработанное в США, предвзято относится к людям с черным цветом кожи, приписывая им более высокую вероятность совершения преступления. Более того, даже если бы данный алгоритм работал объективно, все равно возникает значительный вопрос, связанный с тем, насколько правильно и этически приемлемо выдавать данную информацию. Во второй книге, являющейся по жанру более публицистической, нежели научной, автор высказывает точку зрения, согласно которой математические модели, лежащие в основе ИИ, являются непрозрачными и могут быть предвзятыми, что приводит к социальной несправедливости и угнетению одних слоев общества другими.

Ди Кевин Гао, Эндрю Хаверил, Судип Миттал, Джиминг Ву и Джингдао Чен выделяют следующие этапы развития этики ИИ.

1) Инкубационный (2004–2013). В это время значительно увеличились темпы развития ИИ, появилось глубокое обучение, а исследователи в большей степени стали обращать внимание на человека, последствия развития ИИ, создание «дружественного ИИ».

2) Период создания человекоподобных ИИ-машин (2014–2019). В это время системы ИИ стали справляться со многими задачами лучше, чем сам человек. Например, в 2014 г. нейронная сеть распознала изображение лучше человека, в 2015 г. программа «AlphaGo» одержала победу над чемпионом мира по го Ли Седолем, в 2018 г. программа определила рак кожи лучше врача, к 2018 г. более на-
дежные по сравнению с классическими беспилотные такси стали появляться на улицах крупнейших городов.

3) Создание ИИ, ориентированного на человека (2020 – настоящее время). В это время продолжилось такое же бурное развитие ИИ, и он научился создавать изображения по тексту, полноценно поддерживать разговор, что привело к тому, что некоторые ученые и чиновники стали обращать внимание на возможные значительные отрицательные последствия развития ИИ, в результате чего общественное недоверие к ИИ стало возрастать [Gao et al. 2024: 5–8].

Не вдаваясь в технические подробности создания этического ИИ, рассмотрим далее основные этические вопросы, возникающие в связи с наблюдающимся развитием ИИ в последние годы. Актуальность этих вопросов связана с тем, что если раньше решения по ним принимались людьми, то теперь они все чаще могут приниматься машинами. При этом нужно учитывать, что ИИ развивается быстрее, чем происходит осмысление данных вопросов. В связи с этим некоторые исследователи утверждают, что теперь этика должна быть адресована не отдельным людям, а обществу в целом [Pastor-Escuredo 2022], а в искусственном интеллекте в целом наблюдается сдвиг с создания простого ИИ к созданию ИИ, соответствующего человеческим ценностям [Russell 2019].

Разные исследователи выделяют разные вопросы этики ИИ. Так, сотрудники Института инженеров электротехники и электроники (IEEE) провели анализ более ста нормативных документов, посвященных этике ИИ, выполненных авторами из 25 стран, и выделили 25 основных направлений: социальная ответственность, прозрачность, предвзятость и справедливость, соблюдение свободы и независимости, безопасность и надежность, ответственность и подотчетность, техническая объяснимость, непостоянство, человеческие права, доверие, безработица, экономический рост, публичный контроль, участие общественности, согласие и автономия личности, уязвимости, неправильное и враждебное использование, ложь и манипуляция, новая рабочая сила, культурная чувствительность, экзистенциальные угрозы и сильный искусственный интеллект, фи-зическое влияние, дезинформация, взаимодействие между людьми, взаимодействия между человеком и роботом [Schiff et al. 2021: 37]. А. А. Миндигулова выделяет следующие основные проблемы: права и свободы человека, разнообразие и свобода выбора, дискриминация и создание свободного общества, безопасность, устойчивость, защита персональных данных и автономность, подконтрольность и прозрачность [Миндигулова 2022: 148]. Анализ крупнейших стандартов и рекомендаций, проведенный В. В. Леушиной и В. Э. Карповым, показывает, что во всех них во главу угла ставится благополучие человека, а основными требованиями, предъявляемыми к ИИ, являются уважение и защита свободы и прав человека, непричинение вреда, обеспечение безопасности и защищенности, справедливость, отказ от дискриминации, подконтрольность и подчиненность человеку, прозрачность, объяснимость, подотчетность [Леушина, Карпов 2022: 136]. В. В. Шляпников делит все этические проблемы на следующие большие группы:

1) проблемы, возникающие при понимании ИИ как объекта,
то есть инструмента, используемого людьми (например, неэтичное использование ИИ человеком);

2) проблемы, возникающие при понимании ИИ как субъекта,
то есть этика самого ИИ (например, программирование этики);

3) возможная проблема появления искусственного сверхразума, неподконтрольного человеку [Шляпников 2023: 367].

Несмотря на наличие достаточно большого количества проблем, их перечни, приводимые разными исследователями, во многом пересекаются. Рассмотрим далее некоторые из них более подробно.

Важной этической проблемой ИИ, на которую обращает внима-ние значительное число исследователей, является проблема предвзятости и дискриминации по отношению к некоторым слоям населения [Смирнова 2023]. Например, известно, что системы ИИ хуже распознают людей с темной кожей, чем со светлой, а женщин – хуже, чем мужчин, и разница в погрешностях может достигать 20 %. Возможны подобные предвзятости и по отношению к некоторым другим лицам, отличающимся от среднестатистических и имеющим особенности в организме. Существуют три причины возникновения данной проблемы. Первая причина – это неполные и смещенные выборки для обучения нейронных сетей. Например, для обучения ИИ распознаванию образов необходимо, чтобы в обучающей выборке было примерно одинаковое количество людей разного пола, разных рас, разного возраста и т. д. Понятно, что во многих случаях добиться этого сложно, а предусмотреть все возможные не-равномерности еще сложнее. Вторая причина – это ошибочные алгоритмы работы ИИ. Третья причина, связанная со второй, – это неосознанная передача этических установок разработчиков машине [Mbiazi et al. 2023: 11]. Например, понятно, что коллектив молодых мужчин-разработчиков может, не сговариваясь, обращать внимание на некоторые черты женской внешности, на которые другие слои населения не обращали бы внимания, и эти неосознанные установки могут быть переданы при обучении в машинные алгоритмы. Несмотря на то что данные причины не закладываются в ИИ специально и являются для разработчиков неосознанными, они могут приводить к значительным нежелательным последствиям. При разработке и обучении ИИ необходимо учитывать культурное, расовое, половое, возрастное, физическое разнообразие, чтобы не дискриминировать ни одну из перечисленных групп, а также пытаться предвидеть иные варианты разнообразия, которые могут возникнуть при его использовании.

Связанной проблемой является проблема выравнивания ценностей, на которую первым обратил внимание Стюарт Рассел в 2019 г. и которая заключается в том, что в систему ИИ на этапе обучения должны быть заложены такие же ценности, как и в нормального че-ловека. Сложность заключается в том, что данное требование представляется практически невыполнимым по трем причинам. Во-пер-вых, полный набор ценностей человека сложно выделить, потому что многие ценности человек принимает неосознанно. Во-вторых, даже если данные ценности удастся выделить исследователям, то их сложно будет перевести на язык машины. В-третьих, даже если мы их сможем перевести на язык, понятный машине, то мы не можем быть уверенными в том, что машина им в полной мере обучится [LaCroix, Prince 2023: 421]. Также необходимо обратить внимание на то, что разные культуры в разные периоды истории имели разные системы ценностей, поэтому выявление объективных и одинаковых для всех моральных ориентиров, с нашей точки зрения, крайне затруднительно. Например, в конфуцианстве, популярном в восточ-ной культуре, известно следующее изречение: когда учителя спросили, правильно ли за зло платить добром, то учитель поинтересовался в ответ, чем же тогда платить за добро, и дал свой ответ: за зло надо платить по справедливости, а за добро – добром. Можно сравнить эту фразу с христианским тезисом, популярным в западной культуре: когда у Иисуса Христа спросили, правильно ли отвечать оком за око и зубом за зуб, то Христос ответил, что на удар в правую щеку нужно подставить левую. Более того, даже в современном западном мире существуют разные концепции этики (например, деонтологическая, марксистская, утилитарная, кантовская, этика добродетели и др.), которые предписывают совершать разные поступки при одинаковых ситуациях. Таким образом, с математической точки зрения можно сказать, что принятие машиной этического решения является принятием решения в условиях моральной неопределенности.

Отсюда мы приходим к третьей проблеме, проблеме моральной свободы воли – способности делать свободный моральный выбор в зависимости от ситуации и быть ответственным за него. Понятно, что сам ИИ не может быть ответственным. Но основная проблема здесь заключается в том, что существует большое количество
ИИ-устройств, в которые должны быть заложены моральные и эти-ческие принципы, которые будут приниматься в зависимости от ситуации. Например, это может касаться беспилотных такси, военных объектов, систем наблюдения за людьми или интеллектуальных устройств принятия решений в медицине. Если рассмотреть классическую проблему вагонетки, то должны ли мы запрограммировать, например, беспилотное такси на изменение курса движения и причинение вреда одному случайному человеку, например хозяину, вместо продолжения движения и причинения вреда, например, пятерым?

Следующая важная проблема – это проблема прозрачности и объяснимости результатов. Система называется прозрачной, если человеку понятно, как она получает решение, и непрозрачной, ес-
ли непонятно. Нейронные сети относятся к непрозрачным системам, потому что человек не в состоянии понять, как нейроны на внутренних слоях обрабатывают и передают сигналы (достаточно обратить внимание, что, например, считается, что GPT-4 состоит примерно из 1,76 трлн параметров, а их крупнейший современный конкурент Gemini в ее простейшей модификации Nano – из 1,8 или 3,25 трлн; понятно, что такие структуры представить в голове невозможно). Более того, в последние годы наметилась тенденция со-крытия в коммерческих целях внутренней структуры многослойных нейронных сетей, что еще сильнее усложняет понимание. К со-
жалению, даже самые известные и современные большие языковые модели, такие как LLaMA-2, BERT, GPT-4, Gemini, являются непрозрачными и поэтому не применяются в таких областях с высоким риском ошибки, как, например, медицина или планирование [Mbiazi et al. 2023: 9]. Явления, которые человек не может понять, для него обычно являются эмоционально неприемлемыми и пугающими.

В связи с этим возникает проблема дезинформации. Одним из ее примеров является создание и распространение дипфейков (от англ. deep learning – технология глубокого обучения нейронных сетей и fake – ненастоящий) – искусственно созданных реалистичных фото-, видео- или аудиоданных, изображающих действие, которое данным лицом не выполнялось. Понятие дипфейка и первый дипфейк появились в 2017 г., а генеративно-состязательные сети, при помощи которых они создаются, – тремя годами ранее. Самыми распространенными методами создания дипфейков являются замена или создание искусственного лица. Несмотря на то что дип-фейки не являются основным источником дезинформации и могут быть распознаны либо при внимательном знакомстве с образцом, либо по контексту, либо в результате анализа нейронной сетью, сбрасывать их со счетов не следует. Другим источником дезинформации являются большие языковые модели, появившиеся в 2018 г. благодаря изобретению технологии «трансформер» годом ранее. Большие языковые модели (самой известной из которых является GPT), воспринимаемые многими как истинный источник информации, дают правдоподобные ответы на задаваемые им вопросы, однако данные ответы верными являются не всегда, потому что подобные модели не понимают смысл предложений, а всего лишь соединяют слова в предложения в соответствии с ожиданием пользователя или разработчика. Данный эффект выдумывания правдоподобных ответов называется галлюцинацией больших языковых моделей [Аменицкий и др. 2024]. Например, в 2023 г. в ходе судебного разбирательства адвокат привел речь, созданную при помощи ChatGPT, которая была написана в юридическом стиле со ссылками на прецеденты, которых на самом деле не было. Как позже признался сам адвокат, он спросил у чата, не придумал ли он эти дела, на что ChatGPT ему ответил, что они взяты из авторитетных источников и могут быть проверены [Carrick, Kesteven 2023].

Еще одной важной этической проблемой, связанной с большими языковыми моделями, является возможность использования ИИ для кибератак, фишинговых атак и создания вредоносного кода. Несмотря на то что крупнейшие современные большие языковые модели имеют защиту и отказываются давать ответы на неэтичные вопросы и вопросы, нарушающие законодательство, существуют способы обхода данных ограничений. Во-первых, это промпт-атаки. Достаточно известным примером является команда игнорирования предыдущих инструкций, которую языковая модель может воспринять буквально, если ее написать в чате, выполнить и после этого выдать ответ на вопрос, на который до этого она отвечать отказывалась. А во-вторых, летом 2023 г. начали появляться хакерские ана-логи ChatGPT – WormGPT, FraudGPT, DarkBART и другие, свобод-ные от указанных выше ограничений и специализирующиеся на написании хакерских программ и другого вредоносного кода.

Еще одной значимой проблемой является вмешательство в лич-
ную жизнь и свободу личности. С одной стороны, системы уличного видеонаблюдения и распознавания лиц позволяют обеспечивать относительную безопасность на улицах, хотя часть населения считает их малоэффективными. С другой стороны, данные системы могут использоваться для ограничения свободы человека и его демократических прав. Первым случаем, продемонстрировавшим существование этой проблемы, явились гонконгские протесты 2019 г. – первое массовое мероприятие, на котором участники появились
в медицинских масках и очках, чтобы «спрятаться» от биометрии и системы социального кредита [Impact… 2022].

Многоплановой является проблема авторского права. Нейронные сети учатся на больших массивах данных, которые в том числе могут быть получены из Интернета с нарушением авторских прав, а потом воспроизведены генеративным ИИ с небольшими изменениями. Будет ли нарушением авторских прав переписывание чужой работы искусственным интеллектом или воспроизведение стиля того автора, на котором обучалась нейронная сеть? Может ли результат, сгенерированный нейронной сетью, быть запатентован и охраняться авторским правом? [LaCroix, Prince 2023: 429.]

Другой юридической проблемой является проблема ответствен-ности. При совершении правонарушения человеком виновного най-ти возможно. Но кто будет ответственным за нанесение вреда или ущерба искусственным интеллектом – разработчик, программист, владелец, пользователь или никто? Например, в 2016 г. в аварию попал автомобиль Tesla, находившийся в режиме автопилота, в результате чего водитель скончался на месте. Причиной той аварии было названо редкое стечение обстоятельств [Yadron, Tynan 2016]. А в 2018 г. произошла первая авария беспилотного автомобиля Uber, в результате которой погиб пешеход. По итогам судебных разбирательств в 2023 г. был вынесен приговор, согласно которому виновной в ДТП была признана пилот автомобиля. Она была осуждена условно с трехлетним испытательным сроком. Справедливости ради необходимо заметить, что пешеход переходил дорогу в неположенном месте, ночью, в плохую погоду и с велосипедом, а пилот
в момент совершения ДТП отвлеклась на смартфон и поэтому не применила экстренное торможение [Riess, Sottile 2023].

Наконец, существует еще одна проблема, которую иногда даже называют основной этической дилеммой. Ее суть заключается в необходимости выбора между соблюдением прав людей и невмешательством в их личную жизнь, с одной стороны, и необходимостью сбора личной информации о людях для обучения искусственного интеллекта – с другой. Например, для эффективного определения заболеваний и борьбы с ними требуется большое количество историй больных с учетом региона их проживания, пола, возраста и т. п. С одной стороны, при сборе персональных данных всегда осуществляется их обезличивание. Но, с другой стороны, даже дан-ная процедура не всегда делает ее анонимной. Так, если человек болеет редкой болезнью, то, зная район его проживания, пол и возраст, можно его вычислить без имени, фамилии и отчества. Существуют и более сложные современные алгоритмы, которые могут успешно применяться, например, для деанонимизации подписчиков Netflix [Narayanan, Shmatikov 2008].

Далее рассмотрим, какие существуют подходы для решения обозначенных и подобных проблем. В отличие от признаваемого научным сообществом относительно стабильного перечня этических проблем ИИ, единого подхода к их решению не существует.

В первую очередь обратим внимание на то, что ряд исследователей считает, что вообще невозможно говорить про этику ИИ, поскольку она не имеет общепринятых критериев и способов измерения степени «этичности». Согласно такой точке зрения, моральные дилеммы либо не имеют единственного и верного решения, либо возможность создания «моральных машин» и формализации этики в принципе отрицается. Например, С. А. Смирнов пишет: «Этика рождается не в инженерии, а в ситуации множественности свободных воль и действий. В самом ИИ этики нет и быть не может. ИИ научить этике нельзя по определению, поскольку ИИ не является субъектом действия. Этика выступает регулятором, с помощью которого регулируются отношения между людьми, а не между человеком и машиной. Здесь – ключевая проблема доверия не к ИИ, а к человеку, автору ИИ» [Смирнов 2023: 49]. Например, в Массачусетском технологическом институте был запущен моральный онлайн-эксперимент, в котором каждый человек мог, зайдя на сайт, выбрать поступок, который он считает более морально приемлемым в описанной ситуации. Данные результаты должны в дальнейшем использоваться при обучении ИИ. С одной стороны, данная идея является оригинальной и должна действительно помочь в создании морального ИИ. Тем не менее данный подход критикуется по ряду причин. Во-первых, как известно из психологии, между намерениями человека и его реальным поведением существует несоответствие (парадокс Лапьера). Во-вторых, если какой-то поступок наберет большее количество голосов, то это не значит, что он является правильным; это лишь значит, что определенная группа людей проголосовала за него. Научные проблемы должны решаться не всенародным голосованием, а специалистами. В-третьих, данная этика может войти в противоречие с этикой и намерениями производителей товаров. Например, для производителей беспилотных автомобилей будет эффективнее запрограммировать другую, свою этику, потому что никакой покупатель не захочет приобретать беспилотное такси, которое скорее убьет его одного, чем пятерых случайных пешеходов. В-четвертых, моделируя ИИ для реальной жизни, невозможно заранее предусмотреть все возможные ситуации, в которых он окажется, следовательно, невозможно запрограммировать решение всех возникающих этических проблем. В качестве возможного выхода из ситуации авторы предлагают при разработке ИИ заменить этические правила на ценностные (например, производительность, опору на предыдущую работу, новизну для больших языковых моделей) [LaCroix, Luccioni 2022: 11–12; 15].

Для решения проблемы и создания этического ИИ Европейской комиссией была собрана Экспертная группа высокого уровня по искусственному интеллекту, сформулировавшая и опубликовавшая в 2018 г. ряд этических принципов, которыми должны руководст-воваться разработчики и пользователи ИИ. Первый принцип – это четыре этических императива:

– соблюдение человеческой свободы и независимости;

– непричинение физического или духовного вреда;

– справедливость, отсутствие предвзятости и дискриминации;

– прозрачность и объяснимость полученных решений.

Второй принцип – это обращение особого внимания на уязвимые группы людей (например, детей или людей с ограниченными возможностями здоровья). Третий принцип – это понимание того, что, несмотря на то что ИИ дает человечеству существенную пользу, системы ИИ могут являться источником риска и отрицательного влияния, которые также должны учитываться [High-Level… 2019: 12–14]. Существуют и другие подобные документы, созданные общественными, частными и неправительственными организациями [Schiff et al. 2021: 37].

Для оценивания качества этического ИИ в 2000 г. был предложен моральный тест Тьюринга. Как известно, Алан Тьюринг, пытаясь ответить на вопрос, может ли машина мыслить, в 1950 г. написал статью, разработав тест, который он предлагал интерпретировать как способность машины думать и обладать мышлением. Тест представляет собой игру-имитацию, в которой участвует судья, вслепую задающий вопросы двум собеседникам, один из которых является компьютером, а второй – человеком. Если спустя некоторое время судья не сможет с уверенностью сказать, кто из его собеседников является человеком, то считается, что машина прошла тест [Тьюринг 1960]. По аналогии в моральном тесте Тьюринга предлагается вслепую общаться с человеком и машиной, и система может считаться этической, если она может убедить собеседников, что ее моральное поведение неотличимо от человеческого [Allen
et al. 2000; Алексеев 2013].

Подводя итог, можно увидеть, что решение этических проблем ИИ проводится по трем направлениям.

1) Создание комиссий и организаций, выпускающих рекомендации и стандарты по работе с ИИ. Например, можно выделить: стандарт «Этический дизайн», разработанный в 2016 г. Институ-
том инженеров электротехники и электроники (IEEE) совместно с ЮНЕСКО; «Этические руководства для надежного ИИ», написанные Экспертной группой высокого уровня по искусственному интеллекту в 2019 г., собранной Европейской комиссией; «Свод правил по инженерной этике», выпущенный в 2020 г. Королевской академией инженеров; «Рекомендацию об этических аспектах искусственного интеллекта» ЮНЕСКО 2021 г.; «Кодекс этики в сфере искусственного интеллекта», написанный при поддержке государства в 2021 г. крупнейшими российскими компаниями («Газпромнефть», МТС, ВК, РФПИ, «Яндекс», «Сбер» и др.), и др.

2) Предложение и принятие законов. Например, с 2016 до 2023 г. в странах было принято 123 законопроекта, в которых встречается словосочетание «искусственный интеллект», и большинство из них было принято в последние годы указанного периода [Lynch 2023].

3) Принятие философов и специалистов по этике на работу в крупнейшие фирмы. Действительно, в последние годы наметилась тенденция приема на работу в сугубо технические фирмы (Google, OpenAI и др.) философов, которые занимаются оценкой ИИ и созданием благоприятной этической обстановки. Данная тенденция оценивается неоднозначно и иногда называется этическим камуфляжем (этиквошингом) по аналогии с зеленым камуфляжем (гринвошингом), когда вместо решения реальных проблем компания делает просто красивый маркетинговый ход, представляя себя в более благоприятном свете с целью пиара и экономии средств [Bietti 2020]. Тем не менее тенденцию все равно следует назвать положительной.

Таким образом, видно, что этика ИИ является активно развивающейся областью знаний, и если круг вопросов достаточно четко определен, то ответы на них и даже принципиальная возможность существования ответов совсем не ясна. Также интересно обратить внимание на различие подходов в зарубежной и отечественной литературе: в то время как зарубежные авторы стараются подходить
к проблемам в основном аналитически, например предлагая алгоритмы этического ИИ, то в отечественной литературе популярен более гуманитарный и философский подход, обращающий внимание на принципиальное отличие этики от математики, программирования и других легко формализуемых дисциплин.

Литература

Алексеев А. Ю. Комплексный тест Тьюринга: философско-методоло-
гические и социокультурные аспекты. М. : ИИнтелл, 2013.

Аменицкий А. В., Рухович И. В., Аменицкая Л. А., Аменицкий Д. А. Причины, этические проблемы и профилактика галлюцинации LLM // Интеллект: сб. статей Международного конкурса молодых ученых. Пенза : МЦНС «Наука и Просвещение», 2024. С. 12–15.

Карпов В. Э., Готовцев П. М., Ройзензон Г. В. К вопросу об этике и системах искусственного интеллекта // Философия и общество. 2018. № 2. С. 84–105.

Леушина В. В., Карпов В. Э. Этика искусственного интеллекта в стандартах и рекомендациях // Философия и общество. 2022. № 3. С. 124–140.

Лобовиков В. О. Искусственный интеллект, формальная этика и морально-правовой выбор. Свердловск : Уральский гос. ун-т им. А. М. Горького, 1988.

Миндигулова А. А. Этика и искусственный интеллект: проблемы и противоречия // Медицина. Социология. Философия. Прикладные исследования. 2022. № 3. С. 146–150.

О’Нил К. Убийственные большие данные. Как математика превратилась в оружие массового поражения. М. : АСТ, 2018.

Разин А. В. Этика искусственного интеллекта // Философия и общество. 2019. № 1. С. 57–73. DOI: 10.30884/jfio/2019.01.04.

Смирнов С. А. Пределы этики для искусственного интеллекта // Человек.RU. 2023. № 18. С. 40–54. DOI: 10.32691/2410-0935-2023-18-40-54.

Смирнова А. И. Предвзятость как проблема алгоритмов ИИ: этические аспекты // Философия и общество. 2023. № 3. С. 118–126. DOI: 10.30884/jfio/2023.03.07.

Тьюринг А. Может ли машина мыслить? М. : ГИФМЛ, 1960.

Шляпников В. В. Некоторые проблемы этики искусственного интеллекта // Идеи и идеалы. 2023. Т. 15. № 2. Ч. 2. С. 365–376. DOI: 10.17212/ 2075-0862-2023-15.2.2-365-376.

Allen C., Varner G., Zinser J. Prolegomena to Any Future Artificial Moral Agent // Journal of Experimental & Theoretical Artificial Intelligence. 2000. Vol. 12. No. 3. Pp. 251–261. DOI: 10.1080/09528130050111428.

Angwin L., Larson J., Mattu S., Kirchner L. Machine Bias [Электронный ресурс] : ProPublica. 2016. May 23. URL: https://www.propublica.org/article/ machine-bias-risk-assessments-in-criminal-sentencing (дата обращения: 23.05. 2024).

Bietti E. From Ethics Washing to Ethics Bashing: A View on Tech Ethics from within Moral Philosophy // FAT ’20: Proceedings of the 2020 Conference on Fairness, Accountability, and Transparency. Barcelona, 2020. Pp. 210–219. DOI: 10.1145/3351095.3372860.

Carrick D., Kesteven S. This US Lawyer Used ChatGPT to Research a Legal Brief with Embarrassing Results. We Could All Learn from His Error. 2023. June 24 [Электронный ресурс]. URL: https://www.abc.net.au/news/
2023-06-24/us-lawyer-uses-chatgpt-to-research-case-with-embarrassing-result/
102490068 (дата обращения: 23.05.2024).

Gao D. K., Haverly A., Mittal S., Wu J., Chen J. AI Ethics: A Bibliometric Analysis, Critical Issues, and Key Gaps // International Journal of Business Analytics. 2024. Vol. 11. No. 1. Pp. 1–19. DOI: 10.4018/IJBAN.338367.

High-Level Expert Group on Artificial Intelligence. Ethics Guidelines for Trustworthy AI [Электронный ресурс] : European Commission. 2019. Apr-
il 8. URL: https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trust worthy-ai (дата обращения: 23.05.2024).

Impact of Partial Occlusion on Face Recognition. 2022. November 2 [Электронный ресурс]. URL: https://antispoofing.org/impact-of-partial-occlus ion-on-face-recognition/ (дата обращения: 23.05.2024).

LaCroix T., Luccioni A. Metaethical Perspectives on “Benchmarking” AI Ethics. 2022. April 11. DOI: 10.48550/arXiv.2204.05151.

LaCroix T., Prince S. J. D. Deep Learning and Ethics // Understanding Deep Learning. Cambridge : The MIT Press, 2023. Pp. 420–435.

Lynch S. 2023 State of AI in 14 Charts. 2023. April 3 [Электронный ресурс]. URL: https://hai.stanford.edu/news/2023-state-ai-14-charts (дата обращения: 23.05.2024).

Mbiazi D., Bhange M., Babaei M., Sheth I., Kenfack‏ P. J. Survey on AI Ethics: A Socio-Technical Perspective. N. p., 2023. DOI: 10.48550/arXiv. 2311.17228.

Narayanan A., Shmatikov V. Robust De-Anonymization of Large Sparse Datasets // 2008 IEEE Symposium on Security and Privacy. Berkeley; Oakland, CA, 2008. Pp. 111–125. DOI: 10.1109/SP.2008.33.

Pastor-Escuredo D. Ethics in the Digital Era. 2022. April 27 [Электронный ресурс]. URL: https://ssrn.com/abstract=4067373 (дата обращения: 23.05.2024). DOI: 10.2139/ssrn.4067373.

Riess R., Sottile Z. Uber Self-Driving Car Test Driver Pleads Guilty to Endangerment in Pedestrian Death Case [Электронный ресурс] : CNN. 2023. July 29. URL: https://edition.cnn.com/2023/07/29/business/uber-self-driving-car-death-guilty/index.html (дата обращения: 23.05.2024).

Russell S. Human Compatible: AI and the Problem of Control. London : Penguin, 2019.

Schiff D., Borenstein J., Biddle J., Laas K. AI Ethics in the Public, Private, and NGO Sectors: A Review of a Global Document Collection // IEEE Transactions on Technology and Society. 2021. Vol. 2. No. 1. Pp. 31–42. DOI: 10. 1109/TTS.2021.3052127.

Yadron D., Tynan D. Tesla Driver Dies in First Fatal Crash while Using Autopilot Mode [Электронный ресурс] : The Guardian. 2016. July 1. URL: https://www.theguardian.com/technology/2016/jun/30/tesla-autopilot-death-self-driving-car-elon-musk (дата обращения: 23.05.2024).