Мы в соцсетях:

Новое поколение
  • Введите больше 3 букв для начала поиска.
Все статьи
Без альтернативы
ПолитикаВласть

Без альтернативы

Тема тотальной цифровизации в Послании Президента РК народу Казахстана

иллюстрация WELAR

Название документа «Казахстан в эпоху искусственного интеллекта: актуальные задачи и их решения через цифровую трансформацию» говорит само за себя. В Послании Касым-Жомарт Токаев не видит альтернативы тотальной цифровизации и внедрению искусственного интеллекта (ИИ) во все сферы жизни.

По словам главы государства, мир вступил в новую историческую эпоху, которая будет нелегкой для всего человечества. «Нарастают диспропорции и неравенство в мировом экономическом развитии: одни государства все больше отстают, а другие добиваются выдающегося прогресса в области искусственного интеллекта».

В чем прогресс?

В чем же состоит этот «выдающийся прогресс» в сфере ИИ? К сожалению, конкретных примеров пока не наблюдается. Между тем прогнозы, а также события последних лет и в особенности 2025 года говорят об обратном. 

Например, 18 августа текущего года Массачусетский технологический институт (MIT) опубликовал результаты исследования, согласно которому 95 процентов из 300 обследованных компаний в семи из девяти ведущих секторах американской экономики не получают от внедрения ИИ измеряемой выгоды. В отчете MIT утверждается, что нейросети не запоминают обратную связь с человеком, не адаптируются к контексту задач и не улучшают помощь бизнесу. Ему нужны глубоко интегрированные инструменты, а не поверхностные советчики, чем грешат модели ИИ.

К аналогичным выводам пришел известный разработчик программного обеспечения корпорация IBM. Она опросила 2000 руководителей американского бизнеса и установила, что 64 процента из них внедряли нейросети не от реальных потребностей, а от вызванного ажиотажем страха упустить момент и отстать от конкурентов. Сегодня этот страх сменяется страхом разориться.

На публикацию MIT мгновенно, буквально на следующий день, отреагировали американские, а затем азиатские и европейские биржи. На них упали как индексы деловой активности Nasdaq Composite, S&P 500, Nikkei 225, Kospi, Stoxx Europe 600, так и цена акций практически всех высокотехнологичных компаний, занимающихся ИИ.

Заволновался даже Сэм Альтман — генеральный директор одного их ведущих разработчиков моделей ИИ компании OpenAI, предупредивший о возможном формировании финансового пузыря. «Я действительно думаю, что некоторые инвесторы могут потерять значительные суммы. Я не хочу умалять проблему. Это серьезно», — сказал он за три дня до публикации MIT.

Об этом же в феврале 2025-го предупреждал генеральный директор корпорации Microsoft Сатья Наделла. Он напомнил о лопнувшем на рубеже 1990-2000 годов пузыре так называемых доткомов — компаний, строивших бизнес в интернете. По самым скромным подсчетам, лопнувший пузырь доткомов наказал к 2002 году 100 миллионов мелких и крупных инвесторов на 5 триллионов долларов — столько они потеряли на обесценившихся акциях интернет-компаний.

Провал в эффективности

По времени предостережения Наделлы практически совпали с обнародованными в феврале выводами Высшей аудиторской палаты (ВАП) после проверки эффективности политики цифрового развития в Казахстане. По информации ВАП, фонд «Парк инновационных технологий» (ПИТ) потратил 987 миллионов тенге бюджетных средств на финансирование 95 стартапов. Из них 32 пришлось ликвидировать. Еще 21 фирма не платила налоги, что указывало на их бездействие. В результате 53 из 95 профинансированных стартапов, или около 56 процентов, не оправдали государственных инвестиций.

ПИТ получил также 4,9 миллиарда бюджетных тенге на создание пяти центров технологического развития и одного венчурного фонда. По оценке ВАП, деятельность трех центров оказалась безрезультативной, а еще две компании функционируют без перспективных планов развития. Таким образом, 3 миллиарда тенге потрачены неэффективно, констатировала ВАП.

Она также сообщала, что, кроме бюджетных средств, в ПИТ поступил 41 миллиард тенге от недропользователей в качестве обязательств по финансированию научно-исследовательских и опытно-конструкторских работ (НИОКР). Но за их обеспечение ответственность на ПИТ загадочным образом не была возложена. 

Поэтому ВАП поставила под сомнение транспарентность этой деятельности. «В результате 179 проектов на 14,8 миллиарда тенге в основном были направлены на решение текущих задач бизнеса и не содействовали развитию науки и созданию новых технологий», — говорится в отчете палаты. 

Кроме претензий к ПИТ, у ВАП возникли вопросы к другим направлениям цифрового развития Казахстана. Например, компания «Национальные информационные технологии» (НИТ) обслуживает 34 информационные системы, 85 процентов из которых, по оценке ВАП, пользовались устаревшими технологиями. По данным палаты, из 50 объектов информатизации, закрепленных за НИТ, 28 информационных систем и один аппаратно-программный комплекс фактически не сопровождались как неактуальные.

В итогах проверки ВАП и финансовые нарушения на 1,1 миллиарда тенге. По оценке палаты, неэффективное использование средств в цифровизации составило 46,5 миллиарда тенге. В этой сфере ВАП также выявила 45 системных недостатков и 143 процедурных нарушения.

Что вызывает и что не вселяет надежду

«В июле 2025 года администрацией президента Дональда Трампа представлена стратегия America’s AI Action Plan, в которой ИИ признан важнейшим инструментом технологического, экономического и оборонного лидерства США», — сообщил Касым-Жомарт Токаев 11 августа на совещании по вопросам ИИ. 

«Нашим специалистам следует внимательно изучить этот и другие аналогичные документы, сделать практические выводы», — продолжил Президент. 

За три дня до этого призыва «Новое поколение» проанализировало America’s AI Action Plan (Американский план действий по ИИ) и принятый для его исполнения указ Дональда Трампа. В них бросаются в глаза два главных акцента.

Команда Трампа объявила войну подчинению ИИ разрушительной идеологии «Разнообразие, равенство и инклюзивность» (DEI), которой и сегодня заражено множество инструментов цифровизации, включая модели ИИ. В контексте ИИ DEI скрывает или искажает фактическую информацию о расе и поле, а также манипулирует расовыми и сексуальными представлениями. Сама попытка очищения ИИ от идеологического хлама вызывает уважение и надежду. Но их не вселяет в американских плане и указе приоритет Вашингтона нацбезопасности США над… безопасностью ИИ. Реализовать этот приоритет планируется за счет ослабления контроля над разработкой и внедрением ИИ ради победы в технологической гонке с Китаем. Это парадоксальный и опасный перекос. Национальная и искусственно-интеллектуальная безопасность любого государства — это сиамские близнецы. Приоритет одного над другим создает угрозу как нацбезопасности, так и ИИ-безопасности. Поэтому оба документа требуют максимально критичного осмысления и отделения зерен от плевел. 

Коллаж.jpg
WELAR

Не польза, а вред

По словам Касым-Жомарта Токаева, цифротехнологии меняют рынок труда, повышая спрос на специалистов, умеющих работать с ИИ, а особая роль в цифровой модернизации экономики отводится образованию. Поэтому по поручению главы государства запущена программа Al-Sana, призванная вовлечь до 100 тысяч студентов в высокотехнологичные проекты.

«Но формирование компетенций в области искусственного интеллекта должно начинаться значительно раньше — еще со школьной скамьи», — заявил в Послании Президент. В этой связи он потребовал подготовить программу и учебные материалы по основам ИИ и владения его технологиями от педагогов. Кроме того, Президент призвал разработать модель малокомплектной сельской школы Qazaq Digital Mektebi на основе ИИ и дистанционного обучения.

Во время пандемии ковида глава группы компаний «Сбер» и один из лидеров российских ультраглобалистов Герман Греф откровенно признал дистанционку пригодной для плебса, но никак не для элиты общества. Что касается ИИ, то пока он приносит образованию и уж тем более воспитанию подрастающего поколения не пользу, а вред. Об этом свидетельствуют результаты уже десятков исследований во многих странах.

В частности, осенью 2024 года ученые Пенсильванского университета сравнили результаты более тысячи американских школьников в решении   математических задач для средней школы и пришли к выводу, что ИИ (конкретно чат-бот ChatGPT упомянутой компании OpenAI) сильно вредит школьной учебе и развитию детей в целом. Причем вредит даже кастомизированный (подстроенный под индивидуальные запросы) робот-учитель. По мнению американских ученых, ИИ служит не более чем костылем для юных мозгов. В подавляющем большинстве школьники просят от ChatGPT лишь ответ, а сами тем временем утрачивают даже зачатки математических навыков. 

«Мы находимся на той стадии, когда ИИ может стать фастфудом, который искалечит естественный интеллект», — высказалась за полгода до выводов пенсильванцев директор Института педагогики Санкт-Петербургского госуниверситета Елена Казакова во время дискуссии в Московском международном образовательном салоне (ММОС). Подпускать ИИ к воспитанию подрастающего поколения, по мнению Казаковой, нельзя даже на пушечный выстрел.

«В 2023 году мы обсуждали, как нейросеть впервые в России написала за студента диплом. Это ведь пойдет полным ходом, — отметила в ММОС директор Института когнитивных исследований РАН Татьяна Черниговская. — Начнут выпускать специалистов, обученных не людьми. Мы этого хотим? Я вот не хочу лечиться у врача, вместо которого училась нейросеть». (Имеется в виду обучение ИИ на больших внешних данных, после чего он учит человека. — Прим. авт.).

Пять альтернатив, или Слабость бывает силой

«Стремительное развитие искусственного интеллекта уже влияет на мировоззрение и поведение людей, особенно молодежи, — заявил в Послании Касым-Жомарт Токаев. — Иной альтернативы нет, поскольку данный процесс кардинально меняет миропорядок и образ жизни всего человечества». Но как меняет миропорядок и образ жизни человечества ИИ?

На этот вопрос в статье «Стратегия сверхразума» отвечают бывший глава Google Эрик Шмидт, директор Центра безопасности ИИ Дэн Хендрикс и основатель — гендиректор компании Scale AI Александр Ванг. По их оценке, в области ИИ крупнейшие государства уже близки к доктрине взаимного гарантированного уничтожения (Mutual Assured Destruction, MAD) времен холодной войны. Авторы присваивают желательному развитию событий название «Гарантированное взаимное несрабатывание ИИ» (Mutual Assured AI Malfunction, MAАIM), в котором проекты AGI (общего ИИ, сопоставимого с человеческим) ограничены обоюдоострыми угрозами.

Статья предостерегает президента и правительство США от реализации подобия Манхэттенского (атомного) проекта для достижения мирового первенства в области ИИ. Такая попытка, по мнению Шмидта и его коллег, спровоцирует превентивные киберответы извне. Авторы предупреждают, что любое государство, которое создаст AGI (супер-ИИ), будет представлять прямую угрозу для других стран. И они, стремясь обеспечить собственное выживание, будут вынуждены саботировать такие проекты.

По словам авторов, любая агрессивная попытка одностороннего доминирования в области ИИ приведет к превентивному саботажу со стороны конкурентов вплоть до физического удара по центрам управления и доступа к ИИ. Но, как ядерные программы в свое время, ИИ все же может принести пользу, считают авторы, предлагая три альтернативы текущему развитию ситуации.

Первая — невмешательство государств и политиков в деятельность разработчиков ИИ. Вторая — всемирный добровольный мораторий, призванный остановить дальнейшее развитие ИИ либо немедленно, либо после обнаружения способности ИИ к взлому систем жизнеобеспечения или к полностью автономной работе. И третья — всеобщая монополия за счет создания по образу и подобию Европейской организации по ядерным исследованиям (ЦЕРН) международного консорциума, который возглавит глобальную разработку и контроль над ИИ.

Комментируя предложения американской Комиссии по обзору экономики и безопасности США и Китая (USCC) о госфинансировании своего рода «Манхэттенского проекта» по созданию суперинтеллекта в укромном уголке страны, авторы статьи предупреждают, что Китай обязательно отреагирует на такой шаг. Это приведет к длительному дисбалансу сил и нестабильности с непредсказуемыми последствиями, резюмируют Шмидт, Хендрикс и Ванг.

Иную альтернативу в статье «Добро пожаловать в эру опыта» (научно-рецензируемый журнал PeerJ, декабрь 2024-го) предложили Дэвид Сильвер и Ричард Саттон — ведущие разработчики моделей ИИ компании DeepMind, британского подразделения Google. По убеждению Сильвера и Саттона, большие языковые модели (LLM), такие как американские ChatGPT и китайские DeepSeek, — тупиковая ветвь развития ИИ.

Взамен они предлагают вообще избавить компьютерный «мозг» от ограничений человеческого мышления и учить его не на громадных массивах текста и изображений, а поставить ИИ в условия буквально непрерывного постижения жизненного опыта. При этом Сильвера и Саттона не останавливают очевидные потенциальные угрозы самостоятельного рождения сверхразума без контроля человека.

Наконец сенсационной альтернативой LLM расценена в марте 2025 года презентация в Барселоне австралийской компанией Cortical Labs первого в мире ИИ на основе синтетической биологии. Он функционирует благодаря живым человеческим клеткам. Этот ИИ под названием CL1 объединяет нейроны человеческого мозга с технологиями на основе кремния для создания гибридных нейросетей.

Все пять перечисленных альтернатив LLM вместе с LLM имеют примерно поровну плюсов и минусов. О них среди экспертов нет не то что согласия, а даже намека на сближение позиций. Иначе говоря, IT-индустрия находится в состоянии мощнейшей бифуркации — разногласий и разветвления уже не на два, а на несколько направлений. И никто не решается сказать, какое из них надежнее и безопаснее, какое обещает прогресс, а какое регресс.

Провозглашать в этой неопределенности безальтернативность тотальной цифровизации и внедрения ИИ из-за боязни отстать в этом деле с тяжкими последствиями — свидетельство отсутствия запасного плана и подстраховки на случай, если ИИ не оправдает (пока не оправдывает) надежд.

В истории суверенного Казахстана минимум один яркий пример, когда казавшаяся слабость республики обернулась ее силой. Имеем в виду глобальный финансово-экономический кризис 2007-2009 годов. Его последствия ударили по Казахстану менее ощутимо, чем по другим странам Азии, Европы, США, России. В том числе благодаря действиям Президента, Парламента, Правительства и Нацбанка. Но главный микширующий фактор — тогдашняя меньшая включенность Казахстана в глобальную экономику и зависимость от нее. 

С тех пор ситуация изменилась. Неисключаемый провал безальтернативной цифровизации и внедрения ИИ на развитых Западе и Востоке мигом аукнется с тяжкими последствиями у нас. 

Фото из открытых источников

Читайте в свежем номере: