Научный журнал
Современные наукоемкие технологии
ISSN 1812-7320
"Перечень" ВАК
ИФ РИНЦ = 1,172

ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ В ОБРАЗОВАНИИ: РИСКИ НЕКОРРЕКТНОГО ИСПОЛЬЗОВАНИЯ

Пустовойтов В.Н. 1 Дубицкая Е.В. 1 Шлома А.В. 1
1 ФГБОУ ВО «Брянский государственный университет имени академика И.Г. Петровского»
Искусственный интеллект играет все большую роль в образовании. В статье сделана попытка обобщить возможные угрозы и риски некорректного использования генеративных моделей субъектами образования. Исследование опирается на концептуальные идеи информатизации образовании, а также на анализ статистических данных и практики использования генеративных технологий в сфере образования. Отмечено, что негативные последствия использования нейросетей в образовании связываются как с несовершенством существующих моделей, так и со стремительно нарастающим, но недостаточно контролируемым влиянием искусственного интеллекта на систему образования. Определены и проанализированы проблемы широкого использования генеративных моделей в сфере образования: риски социально-воспитательного характера, вызовы традиционной системе образования, угрозы развития личностных дисфункций у подрастающего поколения. Среди направлений предупреждения негативных последствий использования нейросетей в образовании названы: формирование у обучающихся способности и готовности корректного использования генеративных моделей в учебно-познавательной и в будущей профессиональной деятельности; разработка стратегий, технологий и методик включения в учебно-воспитательный процесс искусственного интеллекта как эффективного многофункционального дидактического средства; целенаправленная подготовка педагогов к использованию возможностей генеративных технологий в образовательном процессе. Сделан вывод: разработка стратегий и механизмов предупреждения угроз некорректного системного использования искусственного интеллекта в образовании требует объединения усилий политиков и правоведов, интеграции потенциала ученых-дидактов, педагогов-практиков, технических экспертов и разработчиков генеративных моделей.
информатизация образования
искусственный интеллект
сгенерированный контент
некорректное использование нейросети
1. Доверие к ИИ // ВЦИОМ. 24.12.2024. [Электронный ресурс]. URL: https://wciom.ru/analytical-reviews/analiticheskii-obzor/doverie-k-ii (дата обращения: 10.06.2025).
2. Влияние искусственного интеллекта на образование // АНО «Цифровая экономика», 2024. [Электронный ресурс]. URL: https://fgosvo.ru/uploadfiles//method/Report_II_education_2024.pdf (дата обращения: 30.05.2025).
3. Dei M.О. The impact of AI on the adaptation of educational materials and teaching methods to the needs of each student // LatIA. 2025. Vol. 3. Р. 124. DOI: 10.62486/latia2025124.
4. Ходаев А.С., Макарова Л.Н. Искусственный интеллект и социализация подростков: риски влияния // Вестник ТГУ. 2024. № 4. URL: https://cyberleninka.ru/article/n/iskusstvennyy-intellekt-i-sotsializatsiya-podrostkov-riski-vliyaniya (дата обращения: 11.06.2025).
5. Puteri S., Saputri Yu., Kurniati Ya. The Impact of Artificial Intelligence (AI) Technology on Students’ Social Relations // BICC Proceedings. 2024. Vol. 2. 153–158. DOI: 10.30983/bicc.v1i1.121.
6. ИИ: ваш новый лучший друг? // ВЦИОМ. 3.12.2024. [Электронный ресурс]. URL: https://wciom.ru/analytical-reviews/analiticheskii-obzor/ii-vash-novyi-luchshii-drug (дата обращения: 30.05.2025).
7. Лексин В.Н. Искусственный интеллект как предмет и средство государственной политики // Вестник Московского университета. Серия 12. Политические науки. 2024. № 2. С. 71–93. DOI: 10.55959/MSU0868-4871-12-2024-2-2-71-93.
8. European Commission. Ethics Guidelines for Trustworthy AI. Commission Communication. 2019. [Электронный ресурс]. URL: https://op.europa.eu/en/publication-detail/-/publication/d3988569-0434-11ea-8c1f-01aa75ed71a1#_publicationDetails_PublicationDetailsPortlet_pa (дата обращения: 23.05.2025).
9. Pause Giant AI Experiments: An Open Letter. 22 March, 2023. [Электронный ресурс]. URL: https://futureoflife.org/open-letter/pause-giant-ai-experiments/ (дата обращения: 15.06.2025).
10. Obed B., Bright B. Algorithmic bias in educational systems: Examining the impact of AI-driven decision making in modern education // World Journal of Advanced Research and Reviews. 2025. Vol. 25 (01). P. 2012–2017. DOI: 10.30574/wjarr.2025.25.1.0253.
11. Ismail I.A., Aloshi J.M. Data Privacy in AI-Driven Education: An In-Depth Exploration Into the Data Privacy Concerns and Potential Solutions // AI Applications and Strategies in Teacher Education. IGI Global. 2025. P. 223–252. DOI: 10.4018/979-8-3693-5443-8.ch008.
12. Dezfouli A., Nock R., Dayan P. Adversarial vulnerabilities of human decision-making // Psychological and cognitive sciences. 2020. Vol. 11, Is. 46. URL: https: 10.1073/pnas.2016921117 (дата обращения: 03.06.2025).
13. Зиньковская А.В., Оломская Х.Н. Манипуляция сознанием посредством искусственного интеллекта как гуманитарная проблема XXI века // Российский социально-гуманитарный журнал. 2024. № 1. DOI: 10.18384/2224-0209-2024-1-1386.
14. Казарян А.Ю. Искусственный интеллект в процессах образования и обучения, положительные и отрицательные стороны // Международный журнал гуманитарных и естественных наук. 2023. № 11–2 (86). URL: http://intjournal.ru/wp-content/uploads/2024/01/Kazaryan.pdf (дата обращения: 31.05.2025).
15. ИИ в образовании: как преодолеть соблазн готовых решений / Новости образования в НИУ ВШЭ. 22 апреля 2025 // Национальный исследовательский университет Высшая школа экономики. [Электронный ресурс]. URL: https://www.hse.ru/news/edu/1038459152.html (дата обращения: 28.06.2025).
16. Искусственный интеллект в школе: добро или зло? // ВЦИОМ. 21.04.2025. [Электронный ресурс]. URL: https://wciom.ru/analytical-reviews/analiticheskii-obzor/iskusstvennyi-intellekt-v-shkole-dobro-ili-zlo (дата обращения: 28.06.2025).
17. Global education monitoring report, 2023: technology in education: a tool on whose terms? // UNESCO Digital Library website. 2023. 526 p. DOI: 10.54676/UZQV8501.
18. Искусственный интеллект: угроза или светлое будущее? ВЦИОМ. 28.12.2022. [Электронный ресурс]. URL: https://wciom.ru/analytical-reviews/analiticheskii-obzor/iskusstvennyi-intellekt-ugroza-ili-svetloe-budushchee (дата обращения: 20.06.2025).
19. Демин М.Р. Разработка и апробация теста для измерения неэтического академического поведения студентов // Вестник практической психологии образования. 2023. Т. 20. № 4. С. 30–42. URL: https://psyjournals.ru/journals/bppe/archive/2023_n4/Demin (дата обращения: 30.06.2025).
20. Nidugonda P., Shaik Sh. The Digital Influence ChatGPT and its Role in Shaping Youth Cognitive Processes and Decision-Making // International Journal of Innovative Science and Research Technology. 2025. Vol. 10. Р. 1283–1287. DOI: 10.38124/ijisrt/25apr987.
21. Аншина М. Эпидемия цифрового аутизма страшнее коронавируса // БИТ. Бизнес & Информационные технологии. 2020. № 2 (95). С. 46–58. URL: https://elibrary.ru/item.asp?id=44489608 (дата обращения: 30.06.2025). EDN: CVAEAB.
22. Пустовойтов В.Н., Белоус Н.Н., Шубабко Е.Н. Ключевые принципы использования технологий искусственного интеллекта в общем образовании // Современные проблемы науки и образования. 2024. № 4. URL: https://science-education.ru/ru/article/view?id=33548 (дата обращения: 15.06.2025). DOI: 10.17513/spno.33548.

Введение

Искусственный интеллект (ИИ) де-факто интегрирован во все сферы жизни современного человека. Его значимость в современном обществе трудно переоценить – использование возможностей генеративных технологий становится нормой жизни россиян. По данным ВЦИОМ (декабрь 2024 г.): «94 % россиян в той или иной степени информированы о технологиях искусственного интеллекта» [1].

Значимую роль ИИ играет в образовании. Уже сегодня специалисты (например, [2, 3]) говорят о влиянии нейросетей на традиционную модель обучения – использование ИИ вносит коррективы как в методы и формы обучения, так и в содержание образования, отмечается усиление влияния генеративных технологий на процессы социализации и воспитания подрастающего поколения [4, 5]. В перспективе, и это уже очевидно, влияние ИИ на все компоненты педагогической системы будет только нарастать, не только внося позитивные изменения в систему образования, но и создавая определенные риски и вызовы. Возможные негативные последствия требуют глубокого осмысления как в контексте современности, так и в контексте выявления и прогнозирования долгосрочных рисков влияния ИИ на образование.

Цель исследования – обобщить возможные угрозы и риски некорректного использования ИИ в образовании.

Материалы и методы исследования

Основой для выводов и обобщений служат концептуальные идеи информатизации образования, представленные в трудах отечественных и зарубежных исследователей, положения этики использования технологий ИИ в образовании, а также статистические данные и анализ практики использования генеративных технологий в образовании.

В ходе исследования использованы следующие методы: терминологический анализ, синтез, обобщение, классификация.

Результаты исследования и их обсуждение

Использование технологий ИИ и педагогами, и обучающимися стало нормой. Педагог имеет возможность средствами ИИ действенно обеспечить реализацию индивидуального подхода в обучении и воспитании, методически «приблизить» учебно-воспитательный процесс к ожиданиям, интересам и потребностям обучающегося, оптимизировать академическую нагрузку и др. Школьники и студенты используют возможности нейросетей для обработки различных видов данных, для контроля и проверки выполнения учебных заданий, при подготовке работ по гуманитарным и решении задач по естественно-научным дисциплинам; функционально современные модели ИИ позволяют обучающимся спланировать подготовку проекта и курсовой работы, автоматизировать рутинные операции.

Однако наряду с возможностями широкое привлечение возможностей генеративных моделей в образование несет на себя риски и негативные последствия как оперативного, так и долгосрочного характера.

Влияние ИИ на систему образования носит комплексный характер [2]. Учитывая, что сфера образования сопряжена со всеми сторонами общественной жизни, с тенденциями развития общества, целесообразно анализировать риски и угрозы, связанные с внедрением ИИ в образование, как открытую систему. Данная система включает в себя не только современные (уже проявившиеся) проблемы использования ИИ, но и долгосрочное возможное негативное влияние ИИ на систему образования, ее субъектов.

С учетом особенностей созревания психики человека в подростковом и юношеском возрасте, а также степени использования ИИ-технологий молодежью (86–87 % молодых людей используют генеративные модели [6]; 79 % пользователей в возрасте 18–24 лет доверяют сгенерированному контенту [1]), очевидно, что потенциально наиболее подвержено влиянию ИИ именно подрастающее поколение. Угрозы и вызовы возможного негативного влияния ИИ-решений в сфере образования целесообразно рассмотреть как минимум в трех аспектах:

– проблемы и риски социально-воспитательного характера;

– вызовы традиционной системе образования;

– угрозы развития личностных дисфункций у подрастающего поколения.

Социальные последствия использования ИИ анализируются многими признанными учеными, влиятельными общественными деятелями и политиками [7, 8]. Масштабная интеграция ИИ в современную жизнь признается гуманитарной проблемой XXI в.: «системы ИИ с конкурентоспособным с человеком интеллектом могут представлять серьезную угрозу для общества и человечества» [9].

Изучение социально-воспитательного влияния ИИ на формирование мировоззрения подрастающего поколения в научных исследованиях акцентировано на нескольких проблемах. Среди них: соблюдение личной конфиденциальности, проблемы «алгоритмической предвзятости» и воспроизводства ИИ-системами социальных стереотипов [10, 11]. Первопричина угроз данного характера в целом известна: системы машинного обучения основаны на использовании больших массивов данных (в том числе персонального характера), отбор которых ведет человек, имеющий свои взгляды на жизнь и общество. Тем самым вольно или невольно уже на начальном этапе разработки генеративных моделей в них закладывается информация о фактах, процессах и явлениях действительности с определенной долей субъективизма. Впоследствии «творческая» генерация контента нейросетью не исключает воспроизведение ИИ-моделями заложенных социальных стереотипов через распространение дезинформации, персонализированного контента, «социальных доказательств» и др.

В контексте воспитательного влияния генеративных технологий на подростков и молодежь необходимо выделить угрозы, связанные с манипулированием генерируемым контентом. Как показывает анализ научных исследований, манипулирование уже сегодня возможно как со стороны человека, так и со стороны ИИ [12]. В частности, модели ИИ могут использоваться заинтересованными институтами или группами, разрабатывающими или финансирующими разработки ИИ, для оказания влияния на ценностные ориентации и взгляды пользователей [13]. Например, корпорации – разработчики моделей ИИ, осуществляя его «обучение» без должного контроля со стороны государства, общества, без сотрудничества с педагогами и психологами, имеют возможность активно внедрять в образовательную сферу решения, удовлетворяющие в значительной степени корпоративным интересам (например, акцентируясь преимущественно на предметных результатах обучения при игнорировании воспитательной составляющей).

Независимо от первопричины, предвзятая генерация информации несет потенциал негативного влияния на формирующееся мировоззрение подростков и юношей. В силу своих возрастных особенностей они воспринимают представленную ИИ информацию как объективную, используют ее, как правило, без должного критичного осмысления. Тем самым создаются условия для формирования у молодежи «навязанных» (в том числе деструктивных) взглядов, представлений и ценностных ориентаций, навыков некритичного воспроизводства стереотипов. В долгосрочной перспективе возрастает риск переноса нынешним молодым поколением в реальную жизнь сформированной привычки безоговорочного доверия информации, риск некритичного осмысления действительности.

Стремительная интеграция технологий ИИ в образовании влечет ряд вызовов традиционному процессу формального образования, его организации [14].

Анализ школьной и вузовской практики свидетельствует о росте некорректного использования генеративных моделей школьниками и студентами для написания эссе, рефератов, курсовых, выпускных квалификационных работ, выполнения домашних работ, решения задач, выполнения творческих заданий и др. Исследования показывают, что только 12,5 % опрошенных студентов вузов не используют ИИ, каждый четвертый (39 %) «доверит ИИ подготовку дипломных и выпускных работ», две трети опрошенных «хотят, чтобы он выполнял письменные задания... практические и лабораторные работы» [15]. Об активном использовании школьниками нейросетей свидетельствует и статистика общего образования: только треть (34 %) взрослых отмечают, что их дети-школьники и дети близких или знакомых не используют ИИ «в учебе, при выполнении домашних работ» [16]. При этом, отметим, сгенерированный ИИ контент обучающимися, как правило, копируется или, в лучшем случае, переписывается без должного анализа, что, очевидно, оказывает влияние на качество предметных результатов обучения. Таким образом, самостоятельность выполнения учебного задания современным школьником или студентом вне школьного кабинета или учебной аудитории, а также оригинальность полученных результатов ставятся под вопрос. Проявляется тенденция снижения качества образовательной (в том числе предметной) подготовки обучающихся; разрушается институт традиционной домашней и внеаудиторной самостоятельной работы обучающихся, требуют модификации сложившиеся и апробированные методы и формы обучения.

Широкое использование ИИ в образовании, как отмечается ЮНЕСКО, создает условия для роста образовательного неравенства [17]. Неравенство в российском образовании, как видится, может проявляться в нескольких аспектах: (1) в территориальном распределении доступа к ИИ-технологиям [18]; (2) в возможностях использования моделей ИИ на коммерческой основе, различающимися как в содержании и форме генерируемой информации, так и в функционале; (3) в развитии в перспективе форм получения образования преимущественно через ИИ-сервисы (а не в процессе общения с педагогом). Решение обозначенных проблем выходит за сферу образования. Каждая из проблем специфична, в своем решении требует комплексного подхода, интеграции усилий не только (и не столько) педагогов и разработчиков генеративных моделей, но и правовых решений, системного внимания общества в целом.

Некорректное систематическое использование обучающимися ИИ несет риски для личностного развития школьников и студентов – потенциально способно провоцировать развитие деструктивных личностных качеств, социальных, когнитивных и эмоциональных нарушений у обучающейся молодежи. В частности, исследователями отмечаются проблемы академической честности применения ИИ обучающимися в выполнении учебных заданий [19] (и, соответственно, риски искаженного развития личностных качеств). Систематическое использование генеративных моделей школьниками и студентами при выполнении учебных заданий способствует формированию у них привычки замены своей мыследеятельности обращением к возможностям нейросетей, развитию «академической лени», апатии к познанию. Вследствие стремления полагаться на готовые решения у обучающегося может формироваться психологическая зависимость от ИИ, снижаться уровень креативности и способности к самостоятельному осмыслению ситуации, выдвижению гипотез, принятию взвешенных решений, могут не получать развития умения планирования; в итоге возможно формирование неспособности личности к эффективной адаптации в жизни.

Потенциально систематическое использование ИИ подростками и юношами может оказывать негативное влияние на развитие у них когнитивных навыков. Процессы анализа и синтеза, абстрагирования и конкретизации, классификации, обобщения, сравнения – ключевые мыслительные операции, составляющие основу мыследеятельности человека, – формируются, как известно, в процессе деятельности (А.Н. Леонтьев и др.). Постоянное обращение к генеративным моделям (с учетом копирования школьником, студентом сгенерированной информации и некритичного ее использования) обедняет разнообразие мыслительной деятельности обучающегося, не способствует развитию у него названных операций мышления, оказывает негативное влияние на способность обработки информации в целом [20].

Постоянное использование подростком, юношей генеративных моделей обработки естественного языка «в качестве собеседника» создает риск сворачивания естественных контактов, может способствовать развитию различных нарушений межличностного взаимодействия [21] и, очевидно, расстройству контроля побуждений (как при патологическом гейминге). Современные модели ИИ безэмоциональны, что также негативно сказывается на формируемых у молодых людей коммуникативном опыте и эмпатии.

Проведенный анализ угроз и вызовов подтверждает сделанные авторами ранее выводы [22] и позволяет наметить следующие направления в решении проблем предупреждения негативных последствий некорректного использования моделей ИИ в образовании:

– формирование у обучающихся способности и готовности корректного использования моделей ИИ в учебно-познавательной и, в перспективе, в профессиональной деятельности. Выполнение данного требования предполагает, с одной стороны, целенаправленное обучение школьников и студентов корректному использованию моделей ИИ в учебно-познавательной деятельности, а с другой, формирование у обучающихся осознания места и значимости ИИ в современной жизни и одновременно уверенности в необходимости навыков критического осмысления всех решений, предлагаемых нейросетями;

– разработка стратегий и технологий включения в учебно-воспитательный процесс ИИ как эффективного многофункционального дидактического средства. Выполнение данной задачи, очевидно, предполагает строгое соблюдение ряда требований. Среди них: требование целесообразности и методической обоснованности применения технологий ИИ в образовательном процессе, органичности интеграции ИИ и традиционных моделей обучения и воспитания, учета подготовленности, индивидуальных и возрастных особенностей обучающихся, обеспечения «открытости» использования ИИ и информационной безопасности субъектов образования и др.;

– целенаправленная подготовка учителя, воспитателя к использованию возможностей технологий ИИ в образовательном процессе. У современного педагога необходимо сформировать не только навыки ввода промптов нейросети, но и прочное осознание того, что все варианты решений ИИ должны быть критически осмыслены и проанализированы человеком; необходимо научить учителя, воспитателя использованию возможностей ИИ в профессиональной деятельности.

Заключение

Несовершенство современных ИИ-технологий, отбор баз данных для «обучения» нейросетей и проектирование моделей ИИ без учета потребностей конечного пользователя и возможных рисков, недостаточная разработанность алгоритмов управления рисками и неразвитость норм регулирования использования ИИ – эти и другие особенности управляемой и неуправляемой интеграции ИИ в образование несут на себе вызовы и угрозы не только сложившейся, проверенной временем модели образования, но и в итоге процессам социализации, воспитания и развития личности. Очевидно, что разработка стратегий и механизмов предупреждения угроз системного некорректного использования ИИ-технологий в образовании требует объединения усилий политиков и правоведов, интеграции потенциала ученых-дидактов, педагогов-практиков, технических экспертов и разработчиков ИИ-моделей. В качестве целевых ориентиров предупреждения рисков и эффективного ответа на вызовы стремительной интеграции ИИ в образование представляется обоснованным взвешенный регулируемый подход к данному процессу, включающий в своей реализации целенаправленное формирование у субъектов образования осознания личной и общественной ценности образования в условиях информатизации общества, а также формирование культуры использования моделей ИИ в учебно-познавательной (обучающиеся) и профессиональной (педагоги) деятельности.


Библиографическая ссылка

Пустовойтов В.Н., Дубицкая Е.В., Шлома А.В. ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ В ОБРАЗОВАНИИ: РИСКИ НЕКОРРЕКТНОГО ИСПОЛЬЗОВАНИЯ // Современные наукоемкие технологии. 2025. № 8. С. 109-113;
URL: https://top-technologies.ru/ru/article/view?id=40471 (дата обращения: 10.09.2025).
DOI: https://doi.org/10.17513/snt.40471