(Продолжение. Начало в № 12)
В первой части этих заметок, посвященных предстоящему открытию в Казахстане Университета ИИ, мы рассказали о выступлении в Сенате США педагога-нейробиолога Джареда Хорвата. Он сообщил высокому собранию, что с начала XX века впервые в новой истории на развитом Западе произошло ухудшение умственных способностей детей по сравнению с родителями. Главная причина, по мнению Хорвата на основе международных исследований, — цифровизация среднего образования. Эта оценка вызвала на Западе оглушительный резонанс и много вопросов к процессу, до сих пор преподносимому цифровизаторами и властями как благо.
Что такое MIT
Вершиной цифровизации является на сегодня ИИ, внедряемый в Казахстане повсеместно, включая среднюю школу. «Глава государства объявил 2026-й Годом цифровизации и искусственного интеллекта, поставив задачу сделать Казахстан одним из региональных лидеров по внедрению цифровых технологий и ИИ в образование», — гласит на сайте газеты «Казахстанская правда» статья «Развитие человеческого капитала в контексте реформ Президента» министра просвещения РК Жулдыз Сулейменовой.
Рассказывая о шагах для овладения основами ИИ педагогами, родителями и учениками, автор пишет: «Сотрудничество с MIT в проекте Day of AI Qazaqstan направлено на повышение ИИ-грамотности школьников и подготовку педагогов к преподаванию основ искусственного интеллекта». Что такое Day of AI Qazaqstan, относительно понятно. Хотя не мешало бы уточнить, что Day of AI («День ИИ») — это обширная электронная учебная программа, предложенная школам в 2024-м и принятая в среднем образовании более 100 стран, к которым с прошлого года присоединился Казахстан.
А вот что такое MIT? Вопрос уместен хотя бы потому, что статья опубликована не в научном или другом узкоспециализированном, а в общественно-политическом издании, то есть рассчитанном на массового читателя. Спросите в любом казахстанском городе десять первых встречных прохожих, что такое MIT. Хорошо, если правильно ответит один. Для кого написана статья? Приходится объяснять за министра, что MIT — это аббревиатура названия Массачусетского технологического института (США). Он входит в десятку лучших научно-исследовательских и учебных центров мира и является автором Day of AI.
Сотрудничество с MIT — это замечательно. Но в курсе ли Минпрос РК и его глава, что MIT широко известен не только высоким уровнем научных исследований и предоставляемого образования, но и весьма критичным отношением к ИИ?
Простота, которая хуже воровства
В 2025 году в MIT был проведен первый в мире системный эксперимент с использованием электроэнцефалографии (ЭЭГ, показывает активность мозга) для выяснения, как ИИ влияет на когнитивные способности молодежи. Для проверки были приглашены 54 человека в возрасте от 18 до 39 лет. Все англоязычные, владели компьютером с малолетства, умели пользоваться самой известной в мире моделью ИИ ChatGPT, но не обладали профессиональными литературными навыками.
Испытуемым предложили написать четыре небольших сочинения, по одному в неделю, на темы из стандартных международных тестов. Участников эксперимента разделили на три группы по 18 человек. Во время выполнения заданий первой группе было разрешено пользоваться ChatGPT, второй — Google-поиском без доступа к ИИ, а в распоряжении третьей группы были только личные знания.
Четвертые эссе их авторы писали, поменявшись условиями: те, кто до этого работал самостоятельно, получили в свое распоряжение ChatGPT, и наоборот. Мозговую активность испытуемых на всех этапах сочинительства и после него во время индивидуальных собеседований и поведенческих тестов показывала ЭЭГ.
Результаты оказались однозначными. В мозге авторов, трижды писавших с помощью ChatGPT, была зафиксирована самая низкая активность, включая внимание, рабочую память и контроль. А те, кто работал самостоятельно, показали наилучшее, устойчивое участие мозга на протяжении всего эксперимента, в том числе даже на четвертом этапе с разрешением пользоваться ChatGPT.
На четвертом этапе разница была особенно заметной. У тех, кто сначала трижды пользовался ChatGPT, а затем писал без него, мозг вновь показал худшую вовлеченность — он будто отвык от работы. Эти же авторы хуже запоминали написанные только что сочинения — в среднем лишь 28 процентов смогли устно воспроизвести хотя бы одно предложение из собственного эссе. Данный показатель вдвое выше у тех, кто трижды работал без ИИ. В четвертый раз эти авторы, работая уже с ChatGPT, его услугами пользовались символически.
Анализ текстов также показал существенные различия. Авторы исследования увидели, что сочинения, написанные с помощью ChatGPT, содержали больше штампов и повторяющихся оборотов, а также страдали скудостью лексики. В собеседованиях участники «ИИ-группы» жаловались, что чувствуют чужеродность вроде бы своего текста и не могут вспомнить, что написали.
Этот эффект авторы эксперимента назвали «когнитивным долгом» — накопленным дефицитом глубокого обучения, который снижает способности к критическому мышлению и делает личность подверженной стереотипам и манипуляциям. ChatGPT в худшем смысле упрощает как письмо, так и выполнение многих других задач. Эта простота с точки зрения мозговой активности, запоминания и закрепления знаний хуже воровства.
Кроме детей и молодежи к самой уязвимой группе для плохого влияния ИИ на когнитивку MIT, проведя другое исследование также в 2025 году, относит… программистов — разработчиков моделей ИИ. Да-да, последние тоже сильно рискуют повредить свои умственные способности из-за ежедневного многочасового «общения» со своими детищами в гонке за их «улучшением».
Авторы MIT подчеркивают: регулярное пользование нейросетью требует большой осторожности прежде всего в образовании. «LLM (большие языковые модели ИИ) могут быть полезны как поддержка, но не как костыль. В противном случае они ослабляют именно те когнитивные функции, ради которых мы и учимся», — резюмируют авторы исследования, отчет о котором размещен в открытом бесплатном доступе на массовом исследовательском портале Research Gate.
Специализированные технологические сайты, углубленно изучающие уровень безопасности ИИ, прозвали закономерность, доказанную в лаборатории Media Lab MIT, «цифровым Альцгеймером». В частности, сайт Habr.com даже вынес это прозвище в заголовок своего сообщения об эксперименте в MIT: «Цифровой Альцгеймер: как ИИ разрушает мозг». Именно это свойство ИИ делает детей и молодежь похожими на глубоких стариков, страдающих деменцией.
Робин Гуд наоборот
До начала текущего года для адептов «цифры» и ИИ в образовании Казахстана существовала формальная отмазка от приводимых нами аргументов. Мол, все это происходит где-то там, на Западе, далеко от нас. Но с января 2026 года прибегать даже к этой ущербной отговорке стало минимум некорректно.
В январе 2026 года увидела свет работа «Искусственный интеллект в школьном образовании Казахстана». Она содержит итоги, по нашим наблюдениям, первого в республике комплексного отечественного исследования об ИИ в образовании. Ситуацию в течение четырех месяцев с участием более 300 респондентов изучал центр прикладных исследований Talap, опубликовавший 42-страничный отчет о результатах на своем сайте.
Мы прочитали этот отчет и убедились, что он перекликается и с исследованиями MIT в 2025 году, и с громким выступлением нейробиолога-педагога Джареда Хорвата в Сенате США 15 января 2026 года, о чем рассказано в первой части настоящих заметок.
Сегодня в мире нет проверенных и безопасных моделей внедрения ИИ в школьное образование, констатирует Talap. Он сообщает, что если с конца 2010-х в мире главенствовало предположение, что внедрение ИИ приведет к прямому и быстрому росту эффективности образования, то в 2023-2026 годах этот подход радикально изменился. Уточним от себя: именно в 2023-м в образование всех видов стихийно ворвался ИИ.
В отчетах тех же ЮНЕСКО и Организации экономического сотрудничества и развития (ОЭСР) ИИ все чаще фигурирует не как фактор упрощения управления образованием, а как источник дополнительной сложности, требующий новых управленческих решений. А сам процесс стал территорией локальных экспериментов, проб, ошибок, остановок и корректировок.
«В ходе исследования его участники указывали на широкий спектр социально-гуманитарных и когнитивных рисков, связанных с использованием искусственного интеллекта в школьной практике, включая риски когнитивной эрозии, сужения диапазона когнитивной, эмоциональной и волевой саморегуляции, уменьшения автономности мышления, сокращения разнообразия самостоятельных познавательных стратегий, — сообщает Talap. — Игнорирование этих последствий может превратить ИИ из инструмента развития в фактор долгосрочных индивидуальных и социальных дисфункций».
Более того, «в определенных условиях ИИ может превратиться из инструмента развития в причину кризиса». Это происходит при ориентации лишь на запоминание и воспроизводство знаний, а не на развитие мышления, подчеркивают авторы Talap. В этом случае ИИ забирает когнитивные функции учащихся и снижает их умственную самостоятельность.
Исследователи назвали этот эффект «Робин Гуд наоборот», потому что у сильных учеников ИИ-технологии усиливают их способности, а у слабых — усугубляют их неспособность мыслить и действовать. «Как следствие, вместо усиления развития школы наблюдается ее дальнейшая эрозия, в частности, сокращение доверия между учеником и учителем», — отмечает Talap.
«Родители, учителя и сами учащиеся выражают обеспокоенность снижением самостоятельного мышления, упрощением учебной деятельности и эрозией навыков самостоятельной работы, а также ростом экранного времени и непрозрачностью алгоритмов, — говорится в отчете Talap. — Генеративный ИИ повышает риск ошибок, «галлюцинаций» и неочевидных логических искажений».
Особый интерес представляет прямая речь лиц, в том числе педагогов, отвечавших на вопросы Talap. Этими высказываниями перемежается основной текст о результатах исследования.
Прямая речь
«Зачастую использование ИИ очень примитивное. Здесь уместна метафора: сначала надо научиться ходить, а потом использовать экзоскелет. А у нас еще не сформированы базовые навыки, но при этом мы уже начинаем использовать искусственный интеллект. Это, на мой взгляд, очень серьезный вызов. ИИ используется не как коллега, не как соавтор, а как тот, кто должен сделать все за тебя».
«Наверное, главный вызов на сегодняшний день, по крайней мере, для меня как для педагога, — это эрозия когнитивных навыков. Мы видим, что дети очень сильно делегируют мышление, в том числе в самых ранних классах. Уже во втором-третьем классе они активно делегируют очень простые функции ChatGPT, Gemini, Claude и так далее. Это, на мой взгляд, действительно опасно. Я считаю, что в эпоху ИИ нам нужно усиливать базовые навыки, особенно в начальных классах: письмо от руки, каллиграфию, заучивание стихов, устный счет, пение, труд, работу руками, развитие мелкой моторики. Все то, что традиционно было в начальной школе, должно не просто сохраниться, а, возможно, даже усилиться. Сейчас часто звучит идея, что ИИ освобождает нас от необходимости что-то помнить, заучивать, держать в голове. Мне кажется, это большая ошибка. Мозг нужно тренировать (выделено автором настоящей публикации. – Прим. ред.). В начальной школе дети должны учить стихи, песни, рисовать, писать от руки».
«Школы и вузы тратят на борьбу с ИИ через системы распознавания текстов большие ресурсы. Мне кажется, это неэффективно. Системы генерации очеловеченного текста развиваются быстрее, чем системы распознавания. Мы просто не угонимся. Гораздо разумнее инвестировать в изменение системы оценивания: устные экзамены, дебаты, обсуждения, формы, где невозможно полностью делегировать результат машине».
Мы не случайно уделяем большое внимание проблеме ИИ в школе в преддверии объявленного Президентом РК скорого открытия в республике Университета ИИ. Кому как не ему нужно капитально озаботиться влиянием ИИ в Казахстане на умственные способности людей, прежде всего детей и молодежи.
(Окончание следует.)
