DOI: https://doi.org/10.30884/jfio/2025.04.08
Бельский Виталий Юрьевич – доктор философских наук, профессор, профессор кафедры философии Московского университета МВД России им. В. Я. Кикотя. E-mail: v.belskiy@bk.ru
Проанализировано современное состояние противоречивых суждений развития искусственного интеллекта в образовании. Методологией исследования выступает социально-философский анализ проблемы включения искусственного интеллекта в образование посредством этических принципов: принципа прозрачности и подотчетности, принципа устойчивости и пропорциональности, принципа конфиденциальности, принципа безопасности, принципа использования искусственного интеллекта
в образовании.
На основании изучения концепций, положительных и отрицательных программ, документов встает вопрос о необходимости детальной проработки данного вопроса, так как развитие искусственного интеллекта в образовании изменило образовательное пространство и повлияло на процесс обучения, привело к увеличению этических рисков и опасений в отношении ряда аспектов, таких как персональные данные и автономия обучающихся. Выделяются критические замечания в адрес использования искусственного интеллекта в образовании: нет целостного межпредметного понимания проблемы, недостает структурированной обоснованности; ошибочно предполагается, что практический набор этических стандартов в области образования позволит решить проблему; упускается из виду апробация и адаптация этических принципов; неверно истолковывается важность как процедурных, так и оценочных форм теоретического и практического применения. Эти критические замечания следует понимать как сходящиеся и взаимозависимые.
Результаты исследования позволяют рассмотреть положительные стороны, предоставляемые искусственным интеллектом в образовании, и потенциальные этические проблемы, провести тематический анализ для концептуализации и установления набора этических принципов путем изучения и синтеза соответствующих этических политик и руководств по использованию искусственного интеллекта в образовании. Ожидается, что предлагаемый набор этических принципов послужит основой для информирования заинтересованных сторон в сфере образования и руководства ими при разработке и внедрении этичных и заслуживающих доверия искусственных интеллектуальных систем в образовании, а также катализатором будущего развития соответствующих исследований в этой области. Авторы приходят к выводу, что изучение этических принципов к применению искусственного интеллекта в образовании послужит предпосылкой создания нормативно-правовой базы и структури-рованных моделей внедрения данных технологий при рациональном и эмпирическом обосновании в решении научной проблемы.
Ключевые слова: искусственный интеллект, этические принципы, образование, принципы прозрачности и подотчетности, принципы устойчивости и пропорциональности, принцип конфиденциальности, принцип безопасности.
Ethical Principles for the Application of Artificial Intelligence in Education
Belsky V. Yu., Maikova V. P., Molchan E. M.
This article analyzes the current state of conflicting opinions regarding the development of artificial intelligence in education. The research methodology is based on a socio-philosophical analysis of the problem of integrating artificial intelligence into education through ethical principles: the principle of transparency and accountability, the principle of sustainability and proportionality, the principle of confidentiality, the principle of security, and the principle of using artificial intelligence in education.
Based on the study of concepts, positive and negative programs, and documents, the need for a detailed study of this issue arises, as the development of artificial intelligence in education has changed the educational space and influenced the learning process, leading to increased ethical risks and concerns regarding a number of aspects, such as personal data and student autonomy. Critical remarks regarding the use of artificial intelligence in education are highlighted: there is a lack of a holistic, interdisciplinary understanding of the problem, a lack of structured justification, a mistaken assumption that a practical set of ethical standards in education will solve the problem; and the lack of consideration of the testing and adaptation of ethical principles. The importance of both procedural and evaluative forms of theoretical and practical application is misunderstood. These criticisms should be understood as converging and interdependent.
The results of this study allow us to consider the positive aspects of artificial intelligence in education and potential ethical challenges, and to conduct a thematic analysis to conceptualize and establish a set of ethical principles by examining and synthesizing relevant ethical policies and guidelines for the use of artificial intelligence in education. It is expected that the proposed set of ethical principles will serve as a basis for informing and guiding education stakeholders in the development and implementation of ethical and trustworthy artificial intelligence systems in education, and will also serve as a catalyst for the future development of relevant research in this area. The authors conclude that the study of ethical principles for the application of artificial intelligence in education will serve as a prerequisite for the creation of a regulatory framework and structured models for the implementation of these technologies with a rational and empirical justification for solving scientific problems.
Keywords: artificial intelligence, ethical principles, education, principles of transparency and accountability, principles of sustainability and proportionality, principle of confidentiality, principle of security.
Введение
Включение искусственного интеллекта (ИИ) в образование приобретает популярность на всех направлениях: от использования обучающими и обучаемыми до разработки специального оборудования и программного обеспечения. Задача образовательной политики государства – минимизировать потенциальные риски от внедрения технологий искусственного интеллекта в образовательный процесс и не допустить отставания от разработок гибридных систем на международном уровне. Для использования зарубежных технологий с элементами ИИ и при разработке отечественных необходимо проработать этические принципы на их соответствие принятым в мировом сообществе или моральным стандартам, разработанным для программного обеспечения внутри страны.
В научном мире продолжаются споры относительно этики использования данных при принятии решений в различных дисциплинах: медицинское обслуживание, управление человеческими ресурсами, анализ спортивных результатов. Исследователи, российские и международные организации специально изучили этику использования искусственного интеллекта в образовании. Несмотря на совпадения и общие соглашения между этими этическими рекомендациями и отчетами, мало в каких работах проводилась систематическая оценка глобального консенсуса по этике для искусст-венного интеллекта в образовании. Установление единых этических принципов в этой области предоставляет исследовательским программам новую возможность для удовлетворения требований повсеместной цифровизации образования.
В научных публикациях делается акцент на ключевые направления развития искусственного интеллекта в образовании, обусловленные перспективой, основанной на приложениях, которые поддерживают позицию ИИ как интеллектуального наставника, подопечного, особого механизма обучения; партнера или консультанта по разработке образовательной политики. Искусственный интеллект рассматривается как влиятельный инструмент для расширения возможностей новых учебных парадигм, технологического прогресса и инноваций в образовательных исследованиях [Брызгалина 2022: 367–370].
Методологическое обоснование этических проблем искусственного интеллекта в образовании
Несмотря на способность технологий революционизировать образование, перед исследователями и практиками встают многочисленные проблемы, поскольку ИИ по своей природе является технологически зависимой и междисциплинарной областью. Программное обеспечение с элементами искусственного интеллекта практически покрывает все сферы жизнедеятельности человека, а с учетом того, что обучение осуществляется на протяжении всей жизни личности, индивиду в социальной среде постоянно необходимы знания. Используя оборудование (смартфон, компьютер) и программное обеспечение с элементами искусственного интеллекта, человек погружается в виртуальную реальность образовательных искусственных сред или другие области мнимого пространства, в зависимости от спецификации и направления деятельности. С учетом тенденций развития технологий с элементами искусст-венного интеллекта появляются опасения, что разработчик может внедрять в данную систему элементы, управляющие и направляющие сознание личности на получение прибыли заказчиком. Происходит коммерциализация системы образования и разрыв в среде субъектов образования с позиции возможности пользоваться программным обеспечением, так как оно становится дорогостоящим и потому не всем доступным. Такие препятствия актуализируют потребность в ознакомлении преподавателей и студентов с этическими вопросами, связанными с искусственным интеллектом в образовании. Кроме того, ИИ несет этические последствия, создает угрозы утечки информации другим лицам не только об образовательном процессе в целом, а конкретно по отдельно взятой личности: кто владеет информацией, тот ее контролирует. Этические проблемы в использовании искусственного интеллекта касаются ответственности за данные в высшем образовании, школе и предметных областях [Павлюк Е. С., Павлюк Л. В. 2024], связанные со сбором данных, ограниченной доступностью к источникам данных, предвзятостью и репрезентативностью, владением данными и контролем над ними, автономией данных и участием человека.
Этические принципы применения искусственного интеллекта в образовании
Разработка этических принципов использования ИИ в системе образования, которая коснется и всех сфер жизнедеятельности человека, имеет стратегическое значение для безопасности страны. Образовательная политика государства формулирует потенциальные задачи перед учебными заведениями, отвечающие требованиям и запросам развития общества. Образование дает свой результат для государства в будущем, направляет общество на благополучное функционирование, задает ценностное основание социума, разрабатывает моральные принципы, нормы поведения и деятельности. Огромная роль образования состоит в разработке этических принципов для потенциальных программ с элементами искусственного интеллекта. Для разработчиков и заказчиков нужна хорошо проверенная концепция с выработанными этическими принципами, необходимыми для внедрения в структуру искусственного интеллекта, что внутренне мотивирует разработчиков создавать более на-дежный и ответственный искусственный интеллект. Тематический анализ концепций и соответствующих этических принципов, используемых в программном обеспечении с элементами искусственного интеллекта, показал, что основополагающим в разработке является принцип управления [Геращенко И. Г., Геращенко Н. В. 2024]. Данный принцип включает в себя этические нормы и правила использования программного обеспечения с элементами искусственного интеллекта, а главное – с моральной ответственностью за безопасность человека, защитой конфиденциальной информации, инструкциями внедрения и использования в системе образования.
Принципы прозрачности и подотчетности
Инструменты искусственного интеллекта стали широко применяться в образовании для улучшения практики обучения [Журавлева 2024], но проблема прозрачности генерируемых данных остается нерешенной. Понятие владения данными по своей природе является вопросом прозрачности и справедливости, касающимся того, кто владеет персональными данными и имеет право доступа к ним.
С технической точки зрения сборщикам данных часто дают согласие, но вопрос о том, нарушает ли использование данных конфиденциальность, остается открытым. Между тем доступ к данным и их применение находятся за пределами учебных заведений, поскольку взаимодействие и успеваемость обучающихся регистрируются с использованием структурированной системы обучения. Концепции объяснимости ИИ и данных тесно связаны с прозрачностью и генерируемостью информации. Объяснимость раскрывает функционирование систем ИИ и зависит от технического опыта и роли. Непрозрачная природа ИИ часто создает множество вопросов для заинтересованных сторон, которые не могут понять логику «черного ящика», стоящего за принятием решений. Например, отсутствие объяснимости может привести к тому, что преподаватели не смогут эффективно использовать искусственный интеллект в образовании и своевременно выявлять проблемы, связанные с поведением обучающихся и их успеваемостью в учебе. Эта этическая проблема сосредоточена на понятности функционирования и результатов образовательных систем с искусственным интеллектом. Гибридизация образовательной системы создает проблему в процессах сбора, накопления и предоставления данных для формирования целеполагания на образовательных платформах, корректировке информационных потоков. Проблема состоит в контроле при разработке программного обеспечения, нормативных документов, правил корректного использования искусственного интеллекта в образовании. В большинстве случаев принцип прозрачности не работает, так как разработкой занимаются узкие специалисты, не владеющие нормами и стандартами в сфере образования. Сложность заключается в обосновании определенной договоренности между разными специалистами и нахождении консенсуса. Образовательная политика иногда не предусматривает требования к искусственному интеллекту, а впоследствии появление проблем создает ситуацию перекладывания ответственности и поиска виновных. Необходима четкая проработка по каждому элементу искусственного интеллекта, используемого в системе образования, согласованность всех сторон по разработке, внедрению, использованию и выводу данных технологий.
Принцип подотчетности предполагает разработку модельного ряда процессов от начального этапа (концептуальная проработка на уровне теоретизации) до внедрения и сопровождения в функциональном состоянии элементов искусственного интеллекта в системе образования. Заинтересованные стороны договариваются об ответственности в процессе использования, контроле, предоставлении отчетности о состояниях функционирования. Подотчетность искусственного интеллекта связана с концепцией «ответственного ИИ», которая характеризует этическую практику проектирования, разработки и внедрения. Поднимаются вопросы об ответственности и регулировании искусственного интеллекта в образовании, выходящего за рамки индивидуальной и организационной подотчетности, учитывается устойчивость и пропорциональность [Молчан, Майкова 2024].
Принципы устойчивости и пропорциональности
Подобно другим технологическим достижениям, разработка и внедрение ИИ должны учитывать экологические проблемы, требующие оптимизации энергоэффективности и минимизации его воздействия на окружающую среду. Нормативные акты необходимы для регулирования политики, обеспечивающей соблюдение этических принципов на протяжении всего процесса разработки и внедрения. Использование элементов искусственного интеллекта в образовательной среде, с одной стороны, открывает широкие возможности для обучающих и преподавателей в использовании информационных ресурсов в своей сфере деятельности, с другой – оказывает воздействие на культуру, экономику, политику, социальные взаимоотношения. Принципы устойчивости и пропорциональности предполагают изучение потенциальных рисков и угроз, возможных при использовании искусственного интеллекта в образовании. К разработке образовательных технологий с элементами искусственного интеллекта привлекаются специалисты не только в сфере создания программного обеспечения, но также из других областей, например образования, культуры, экономики. При внедрении инноваций, новых технологий в систему образования изменяются устоявшиеся концепции и парадигмы, трансформируется образовательная политика, возникает необходимость в подготовке специалистов, владеющих методологическим инструментарием, прорабатывается экономический потенциал от использования, то есть включаются контроль и регулирование на всех этапах использования искусственного интеллекта [Tzimas, Demetriadis 2021].
Принцип конфиденциальности
Конфиденциальность личных данных – важнейшая этическая проблема при внедрении искусственного интеллекта в образование, которую можно определить как право на защиту личной информации. Цифровая революция влечет за собой создание, сбор и анализ огромного количества персональных данных для оптимизации процесса обучения. Персональные данные преподавателей и учащихся могут подвергаться риску нарушения конфиденциальности. Например, в отношении персонализированного обучения на основе агентов личная информация об успеваемости, накопленная в прошлом, может быть использована для прогнозирования будущего. Чтобы защитить и поддержать право обучающихся на частную жизнь и социальное благополучие во время обучения в контексте все более осведомленных машин и компьютерных агентов, разработчикам искусственного интеллекта необходимо учитывать мнения обучающих и учащихся. Разработчикам и преподавателям следует обеспечивать прозрачность и наглядность угроз, связанных с ИИ для обучающих, укреплять доверие между учащимися и пре-доставить им информацию, позволяющую использовать навыки
в разных контекстах и сохранять контроль над цифровыми идентификаторами [Синенко, Бондарева 2023]. Принцип конфиденциальности искусственного интеллекта в образовании предполагает согласие на управление и обработку персональных данных. После сбора данных возникают вопросы о том, как работает управление данными, где и как долго хранится личная информация и кому предоставлены права на доступность.
Принцип безопасности
Одной из основных функций обучающих систем является сбор данных пользователей, на основе которых создаются прогнозы относительно их поведения в процессе обучения и деятельности. Однако необходимо предусмотреть потенциальные угрозы, когда данными манипулируют или их используют киберпреступники. Важно защищать персональные данные заинтересованных сторон, включая учащихся, преподавателей и образовательное учреждение, для предотвращения любого неправильного использования или нарушения [Баянов, Шайсламова 2023]. Защита конфиденциальности и безопасности данных становится еще более важной в текущем контексте нормализации виртуального обучения. Это вызывает целый ряд технических опасений по поводу безопасности работы искусственного интеллекта на протяжении всего его жизненного цикла, особенно в условиях, когда другие агенты (как человеческие, так и искусственные) могут вмешиваться в работу системы. Принцип безопасности систем искусственного интеллекта проектируется, разрабатывается и внедряется на основе подхода управления рисками для защиты пользователей. Крайне важно, чтобы разработчики искусственного интеллекта в образовании проявляли большую осторожность при проектировании, обучении, пилотном тестировании и подтверждении безопасности этих систем. Группы заинтересованных сторон, включая разработчиков, преподавателей и государственные органы, создают соответствующие механизмы надзора и оценки, разрабатывают подробные рекомендации для поль-зователей искусственного интеллекта [Зайкина 2023].
Принцип использования искусственного интеллекта в образовании, ориентированный на человека
При разработке искусственного интеллекта в образовании не-обходимо применять ориентированный на человека подход, гарантируемый и расширяющий автономию личности. Принцип искусственного интеллекта в образовании, ориентированный на человека, позволяет дополнить и усилить когнитивные, социальные и культурные возможности людей при сохранении свободы выбора и кон-троля над рабочими процессами. Помощники по искусственному интеллекту сегодня выполняют множество функций, предоставляя определенные рекомендации и помощь, которые влияют на когнитивные предубеждения человека. В проектировании и эксплуатации ИИ необходимо избегать вводящей в заблуждение информации, ставящей под угрозу автономию и социальное благополучие пользователей; алгоритмов и формулировок, служащих компьютерной пропагандой в форме автоматической обратной связи, оценки обучения и предложений. Это особенно актуально в образовательном контексте, где пользователи – дети и молодежь, составляющие уязвимую группу и потому заслуживающие особой заботы и защиты. Нужны учебные программы, помогающие преподавателям приобрести навыки для внедрения искусственного интеллекта в образование, позволяющие адаптировать, фильтровать или уменьшать автоматизацию, которая принуждает и манипулирует мышлением, препятствуя, а не поддерживая мотивации и развитие личности. Инструмент для оценки и предоставления рекомендаций учащимся, преимущественно называемый «интеллектуальной системой обучения», является наиболее долго исследуемым и распространенным приложением. С ростом числа автоматизированных решений и быстрых предложений, принимаемых машинами, вполне вероятно, что ИИ сократит взаимодействие учащихся с другими людьми и их способность развивать индивидуальную находчивость, метапознание, саморегуляцию и независимое мышление. Одной из основных этических проблем является возможность подрыва самостоятельности учащихся и нарушение автономии действий.
Чтобы обеспечить ориентированную на человека систему искусственного интеллекта в образовании, в которой особое внимание уделяется обучающимся, исследователи, разработчики и практики применяют междисциплинарный подход к разработке адаптивных систем обучения, который позволяет формировать не только знания, но и навыки метапознания и саморегуляции. Министерство образования и педагоги изучают основные разработки в области искусственного интеллекта, имеющие решающее значение для эффективного сотрудничества человека и машины при интеграции соответствующей учебной программы в образовательную практику. В результате не только учащиеся и преподаватели останутся под контролем и в центре внедрения ИИ, но и люди и машины будут сотрудничать для улучшения результатов образования [Бельский и др. 2022].
Результаты и выводы
Система образования рассматривает искусственный интеллект как жизненно важный инструмент для получения высококачественных образовательных результатов, однако сбор и анализ персональных данных субъектов образования вызывает серьезную озабоченность правозащитников по утечке информации. Сложность, связанная с внедрением искусственного интеллекта, требует целостного межпредметного понимания проблемы разработки набора этических принципов в образовательной среде. Образовательная политика включает минимальный набор моральных принципов, необходимых для создания базовой нормативно-правовой документации, обеспечивающей определенные требования к разработке, контролю при использовании элементов искусственного интеллекта в системе образования. Несмотря на существующие теоретические основы, исследующие этику ИИ, не было достигнуто универсального консенсуса относительно наилучшей этической теории в целом, при этом внимание уделяется практическому набору этических стандартов в области образования. С учетом междисциплинарного характера ИИ ожидается, что это будет трудная задача, поскольку мораль в основном вытекает из суждений человека и может быть абстрактной, часто неразрывно переплетенной с субъективными интерпретациями. Вовлечение различных заинтересованных сторон в любой образовательный дискурс еще больше препятствует широкому применению этических принципов формальным или дедуктивным способом.
Следовательно, ученым необходимо перенести фокус исследования на стадию внедрения для установления и подтверждения об-щего понимания и стандартов этики для искусственного интеллекта в образовании. Внедрение принципов этики ИИ в образование, а так-же таких этических вопросов, как ответственность, справедливость, безопасность и объяснимость при проведении образовательных исследований, не только смягчит возникающие социальные злоупотребления, связанные с алгоритмической несправедливостью, но и окажет инструментальное влияние на пространство управления ИИ и выработку образовательной политики для долгосрочного развития значимых отраслей. Сложность решения задач, поставленных перед современным обществом, требует целостного и применимого набора этических принципов для искусственного интеллекта в образовательном контексте.
Литература
Баянов Э. И., Шайсламова М. М. Искусственный интеллект в современной философии // Дневник науки. 2023. № 12(84). С. С. 84–94.
Бельский В. Ю., Майкова В. П., Молчан Э. М. Цифровые технологии в системе образования // Вопросы философии. 2022. № 2. С. 216–219.
Брызгалина Е. В. Философский анализ ограничений использования систем искусственного интеллекта в образовании // Интеллектуальные системы. Теория и приложения. 2022. Т. 26. № 1. С. 367–370.
Геращенко И. Г., Геращенко Н. В. Эффективность использования искусственного интеллекта в высшем образовании: философско-антропологический анализ // Наука. Общество. Государство. 2024. Т. 12. № 1(45). С. 101–109.
Журавлева А. В. Цифровизация современного общества в контексте философии и права // Оригинальные исследования. 2024. Т. 14. № 1. С. 222–227.
Зайкина Т. В., Булатова А. Р. Философия искусственного интеллекта [Электронный ресурс] : Дневник науки. 2023. № 4(76). URL: https://dnev-niknauki.ru/images/publications/2023/4/philosophy/Zaikina_Bulatova.pdf.
Молчан Э. М., Майкова В. П. Этические принципы применения искусственного интеллекта в экологическом образовании // Русский инженер: cб. тезисов II Всероссийского конгресса с международным участием. М. : Изд-во МГТУ им. Н. Э. Баумана, 2024. С. 290–291.
Павлюк Е. С., Павлюк Л. В. Оценка неявных рисков использования искусственного интеллекта в системе высшего образования // Современное профессиональное образование. 2024. № 2. С. 33–38.
Синенко В. Я., Бондарева Я. В. Интеграционные процессы как основа метапредметности в системе образования (философско-педагогический дискурс) // Современные философские исследования. 2023. № 3. С. 68–75.
Tzimas D., Demetriadis S. Ethical Issues in Learning Analytics: A Review of the Field // Education Technology Research Development. 2021. Vol. 69. Рр. 1101–1133.