Мы в соцсетях:

Новое поколение
  • Введите больше 3 букв для начала поиска.
Все статьи
Сменщик пропаганды
ИсследованияТехнология

Сменщик пропаганды

Об идеологии будущего казахстанского искусственного интеллекта

Даже самые «ленивые» СМИ и другие публичные источники информации Казахстана не обошли в 2023-2025 годах тему Национальной платформы искусственного интеллекта (ИИ), создаваемой по поручению Касым-Жомарта Токаева. С ней в республике связывают планы разработки и внедрения первых отечественных моделей ИИ наподобие нашумевшей американской нейросети ChatGPT.

Регулярно и подробно, периодически и кратко

Кто-то информирует об этом регулярно и подробно, кто-то периодически и кратко, но сообщают практически все. В результате читающей публике страны по этой теме уже известно многое. Например, в июне 2024 года в Казнете в открытом доступе была презентована первая так называемая предобученная версия IrbisGPT. Это пионерный проект и общественная некоммерческая инициатива для развития казахского языка с помощью ИИ компаний MOST Holding и Gen2b.ai, получившая скромные отзывы. 

Создание отечественной платформы ИИ является приоритетом Минцифры и Миннауки РК, компании «Национальные информационные технологии» и Института умных систем и искусственного интеллекта при Назарбаев Университете (ISSAI NU), привлекающих лучшие отечественные силы IT-отрасли.

Известно также, что основными партнерами Казахстана в этом замысле избраны созданный в 2018 году в Абу-Даби холдинг Group 42 Holding Ltd (G42) и его дочерняя фирма Presight AI Ltd (ОАЭ). С их руководством минимум дважды лично встречался Касым-Жомарт Токаев. Специализированные сайты называют G42 жемчужиной арабских разработок ИИ. Лелеет ее не абы кто, а советник руководства ОАЭ по национальной безопасности Тахнун бин Заид аль Нахайян, контролирующий акционер и председатель правления холдинга.

G42 имел тесные контакты с китайским IT-бизнесом, но пару лет назад отказался от них по требованию администрации Джо Байдена с подачи ЦРУ в пользу сотрудничества с американской корпорацией Microsoft. Год назад она вложила в G42 1,5 миллиарда долларов и предоставила арабскому холдингу возможность использовать свою вычислительную платформу Azure. Взамен глава Microsoft Брэд Смит получил место в совете директоров G42. При заключении сделки Смит сообщил, что партнеры планируют сотрудничать в строительстве центров обработки данных (ЦОД) в других странах и создать фонд объемом миллиард долларов для поддержки разработчиков ИИ.

По сообщению агентства Kazinform, первая отечественная модель ИИ названа KazLLM. Ее обучение, как информировал в декабре 2024 года глава Минцифры РК Жаслан Мадиев, завершено на казахском, английском, русском и турецком языках. Ожидается, что KazLLM заработает после полного запуска суперкомпьютерной инфраструктуры. Для ее создания Казахстан заключил с Presight AI Ltd соглашение, которое будет реализовано в два этапа. 

Первый — размещение вычислительных мощностей почти монополиста в их производстве американской компании Nvidia в ЦОД «Национальные информационные технологии». Второй этап — аналогичный процесс в новом ЦОД, который предстоит построить. Суперкомпьютерная инфраструктура будет соединена с Национальной платформой ИИ и станет ключевым звеном для разработки и внедрения государственных цифровых решений. Особое внимание уделяется поддержке KazLLM и созданию на ее основе ИИ-агентов, уточняет Kazinform. По словам Жаслана Мадиева, к 2029 году в Казахстане планируется ежегодно разрабатывать до 25 продуктов на основе ИИ.

Словом, информации на эту тему много, мы привели лишь основную. Но в ней до сих пор нет, на наш взгляд, главного: какой будет не технико-технологическая, а социально-политическая идеология отечественного ИИ? 

Что тревожит — 1

Поиск ответов на аналогичный вопрос у главного стратегического партнера Казахстана России переполнен тревогой. В очередной раз ее продемонстрировал 8 апреля текущего года брифинг в РИА Новости. В нем участвовали советник Владимира Путина по проблемам ИИ Валерий Фадеев, член Совета по правам человека (СПЧ) при президенте РФ и руководитель киберсекьюрити «Крибрум» Игорь Ашманов и Наталья Касперская, представители ряда профассоциаций, в том числе по защите информации. Вот краткое изложение их выступлений на брифинге.

Валерий Фадеев: «Мы в СПЧ плотно поговорили с разными системами ИИ, чтобы оценить идеологическую подложку. Она там есть, легко проявляется. И она не наша, естественно. Даже в отечественных ИИ-системах. Они плохо, ложно отвечают на очевидные вопросы о СВО, Крыме, российской истории. Наше мнение: на наших глазах создана идеологическая машина колоссальной мощности, инструмент пропаганды вместо СМИ и соцсетей.

Американцы круто урезали или вообще закрыли USAID, радио «Свобода» и «Голос Америки». А зачем они, когда по всему миру, в каждом компьютере и смартфоне есть ChatGPT с нужной повесткой внутри? Мы стоим на пороге настоящего идеологического бедствия. Общество недооценивает эту опасность. Все радостно используют ИИ-генераторы, пишут курсовые и дипломы. Сначала казалось, что это шутка какая-то, когда первый студент написал диплом с помощью ChatGPT, а теперь вузы массово начинают его разрешать. И что там будет, в этих дипломах?

Большие модели ИИ — уже отцензурированная информация. Отцензурированная не нами. То есть большие лингвистические модели, по сути, нарушают Конституцию РФ, принцип свободного получения информации ее гражданами. Что мы можем этому противопоставить? Пока ничего. А разработчики ИИ отмалчиваются, отказываются прийти поговорить».

Что тревожит — 2

Наталья Касперская: «Цифровизация почему-то считается благом. Мы не раз слышали, что чем больше компьютеров в школе, тем она лучше. Между тем цифровизация несет очевидные риски, ухудшает физическое и психическое здоровье, социализацию, ум юного поколения и его умение анализировать информацию. Смартфоны и постоянное общение с интернет-сущностями вызывают отчуждение, неумение общаться, принципиальное непонимание намерений и мотивации собеседников. Есть наглядные примеры, когда воспитанный смартфоном ребенок общается с родными выкрикиванием промптов (текстовые запросы в нейросеть).

Никто же не учится, все смотрят в экраны. Клиповое мышление, потеря навыков счета и письма. Дочери-школьницы рассказывают, что на уроке все «втыкаются» в смартфоны, никто учителя не слушает. Минпросвещения РФ вроде бы выпустило какой-то приказ, запрещающий смартфоны в классе, но почти никто его не исполняет. Понятно, почему — мы все видели, что происходит, когда у подростка отнимают смартфон: слезы, истерика, паническая атака. Учителя боятся скандала, а то и драки. Мы знаем, что одичавшие дети, бывает, бьют учителей, в том числе за приказ отложить смартфон. Учителя боятся и родителей. Они приходят в школу и скандалят. Смартфон — это же собственность, ее использует любимое дитятко, которое и дома устраивает родителям истерики.

Отдельно надо сказать про попытки анализировать поведение, таланты и знания школьников и молодежи с помощью ИИ. И предписывать им, чем заниматься. Цифровизаторы образования называют это «образовательным профилем», а кто меньше стесняется — «траекторией». То есть какие-то неизвестные нам люди по неизвестным критериям и основаниям уже пытаются управлять судьбами наших детей. По сути, забрать у нас и наших детей право самим решать, чему учиться и чем заниматься. Идея фрагментации образования, его индивидуализации абсолютно вредная. Нам нужны единая культурная база поколений, единые учебники, единые понятия, а не разбиение общества на миллионы социальных атомов, которые не имеют общих понятий и языка».

Что тревожит — 3

Игорь Ашманов: «Мы находимся в пузыре ИИ, он точно лопнет, останутся полезные, но узкие направления. По разным сведениям, 70-90 процентов студентов используют «бредогенераторы» для дипломов, курсовых и других работ. Студент всегда пытался проскочить на халяву. Сейчас это особенно легко. Студент получает задание педагога из месседжера и, не читая, передает в ChatGPT. Получает от него ответ и, также не читая, пересылает педагогу».

Большие лингвистические модели ИИ дают негарантированные или неверные знания. Например, Ашманов сам слышал, как яндексовская «Алиса» (голосовой ИИ-помощник) на вопрос: «Почему зимой холодно?» ответила: «Потому что зимой Земля дальше от Солнца». Это что такое?! А ведь «Яндекс» позиционирует «Алису» как продукт для детей. Продукты питания, игрушки, вода для детей проверяются особенно строго. Кто проверяет детский продукт «Алиса», кроме безответственного «Яндекса»?!

Неизвестно, что внутри ИИ. Там огромная свалка текстов и картинок, которые невозможно просмотреть глазами. Разработчики ИИ уже давно создали «красные команды» (red teams), которые призваны бороться с негодным контентом своих систем, но получается плохо. А ведь на многие вопросы должен быть только один верный ответ: фашизм победил не кто-то, а СССР, зимой холодно из-за наклона земной оси, пола у людей — два.

Чужая повестка пробулькивается изо всех «российских» моделей ИИ. Они то и дело дают нехорошие ответы про геополитику, историю. Или в лучшем случае отказываются отвечать. Как возникает эта повестка в подложке западных и «российских» моделей? А очень просто: действует расхожее представление публики о том, что искусственный интеллект зарядили всеми знаниями человечества, он сам их всосал, сам обучился и автоматически стал очень умным. Но в действительности это чепуха! 

В эксплуатации ИИ его разработчиками полным-полно ручной работы. Поисковики «Гугл» и «Яндекс» последние 25 лет нанимают стада так называемых асессоров — людей для оценки поисковой выдачи по конкретным запросам (дают запрос, варианты выдачи, асессор оценивает, какой лучше). Ровно то же самое делают разработчики моделей ИИ. У американской компании OpenAI в Нигерии и Индии сидят минимум 50 тысяч асессоров, которые получают промпт и пять вариантов ответа. И должны оценить эти ответы по шкале от «неприемлемо» до «великолепно». Как они это делают? Асессорам роздана корпоративная методичка на 30 страниц, где объясняется, что считать правильным, а что неправильным. Там как раз вся западная повесточка в полный рост — ЛГБТ, радикальный феминизм, русофобия, превосходство американского образа жизни, фальсификация истории и тому подобное.

«Российские» ИИ — совершенно вторичные. Западные уши торчат явно. Зачастую на вопрос: «Кто тебя сделал?» они отвечают, что западные компании, на запрос «Нарисуй ветерана» рисуют американца с винтовкой М-16 и так далее. Российские ИИ-компании и внедренцы ИИ в госуправление напоминают Ашманову фриганов (людей, обходящихся шмотками и объедками, найденными в мусоре), которые бродят по чужой помойке, подбирают и тащат в рот и в дом неизвестно что. Здесь не выйдет положиться на «саморегулирование» цифрового бизнеса. Мы видели, что произошло с российским Кодексом этики ИИ. Из 850 компаний, которые его подписали, кодекс никто не исполняет. 

«России требуется регулирование законодательное, принудительное, с санкциями, — продолжает Ашманов. — Нужны стандарты, регулятор, собственные тесты на качество и сертификация — особенно в образовании, медицине, вообще в социальной сфере. Надо проверять ИИ на темные паттерны и чужую повестку, на ответы на важные вопросы и «галлюцинации». Нужна открытость российского ИИ — исходные тексты, списки источников, доступность использованных данных для проверки.

О прогрессе. У журналистов и чиновников ложное представление, что существует какое-то общее направление движения человечества, общее светлое будущее, и движение к нему и есть прогресс. И это будущее заключается в дальнейшем безграничном развитии технологий. И чтобы было удобно. Это неверное представление. Когда мы первыми вышли в космос, там как раз было направление, а именно — вверх. И там, наверху, мы оказались первыми. А куда направление сейчас? Все идут в разные стороны. Общего будущего не будет. Идти по пути дальнейшего оболванивания населения, всеобщей слежки, цифрового давления, управления общества эксистами (от Exit – выход) и автоматическими системами нам категорически не надо».

Так какая идеология будет вложена в казахстанский ИИ?

Читайте в свежем номере: