Мы в соцсетях:

Новое поколение
  • Введите больше 3 букв для начала поиска.
Все статьи
Бегущие впереди паровоза
ИсследованияТехнология

Бегущие впереди паровоза

Коллизия вокруг робота в совете директоров «Самрук-Казына»

SKAI - цифровой независимый член Совета директоров фонда Самрук-Казына

Генеральная прокуратура РК переадресовала письмо из Казахстанской ассоциации миноритарных акционеров (QAMS) Министерству искусственного интеллекта и цифрового развития (МИИЦР). Об этом сама QAMS сообщила на исходе прошедшего ноября.

Суть обращений

QAMS информирует, что письмо в Генпрокуратуру в октябре текущего года отправлял исполнительный директор ассоциации Данияр Темирбаев. Он просил высший республиканский орган надзора над соблюдением законности объяснить правомерность присутствия в совете директоров (СД) фонда национального благосостояния (ФНБ) «Самрук-Казына» модели ИИ по имени SKAI в качестве независимого директора органа управления фондом с правом голоса, а также может ли ИИ принимать решения, как и члены СД-люди.

Темирбаев задавал Генпрокуратуре следующие вопросы:

— обладает ли ИИ правосубъектностью (то есть иметь права и нести обязанности)?

— может ли подзаконный акт наделить ИИ правами физического лица?

— могут ли решения совета директоров (СД) «Самрук-Казына» с участием ИИ быть признаны недействительными?

До этого Темирбаев направлял письмо аналогичного содержания в «Самрук-Казына». Оттуда автору ответили, что решение о включении SKAI в совет директоров принято единственным акционером ФНБ, которым является Правительство РК. Исполнительный директор QAMS также планировал отправить запрос в Агентство по развитию и регулированию финансового рынка (АРРФР) по этому поводу с точки зрения риска для инвесторов и в международные финансовые организации и инвестиционные банки, которые являются организаторами выпусков ценных бумаг АО «Самрук-Казына».

Логика как стеклышко

О том, что новым членом СД «Самрук-Казына» стала нейросеть SKAI (Samruk-Kazyna Artificial Intelligence), ФНБ сообщил 2 октября 2025 года. Тогда же SKAI была представлена Касым-Жомарту Токаеву. SKAI 17 октября выступила на заседании Правительства перед премьер-министром Олжасом Бектеновым.

Эти события привлекли повышенное внимание казахстанских юристов и других специалистов. Они усомнились в правовой корректности присутствия робота как независимого директора с правом голоса в высоком органе управления крупнейшим фондом страны.

Например, как сообщил президент Казахстанской ассоциации автоматизации и робототехники (KAAR) Владимир Туреханов, согласно статье 54 Закона РК «Об акционерных обществах», членом СД может быть только физическое лицо. Оно должно соответствовать требованиям к лицам, избираемым в состав СД, а эти требования содержат законодательство и устав акционерного общества ФНБ. Гражданский кодекс РК гласит, что обладать правами и обязанностями могут лишь физические или юридические лица. Однако SKAI не относится ни к тем, ни к другим, так как является ИИ.

«Очевидно, что, согласно Гражданскому кодексу РК, SKAI не является субъектом права, следовательно не может иметь прав и обязанностей, а значит, не может исполнять обязанности члена СД АО «Самрук-Казына», — цитировал Туреханова Forbes.kz. Глава KAAR уточнял, что состав СД «Самрук-Казына» содержит приложение 4 к постановлению Правительства от 17 октября 2008 года № 962. К нему добавлено примечание о внесении изменений постановлением Правительства РК № 801 от 26 сентября 2025 года. Но оно имеет гриф для служебного пользования.

Юрист Кристина Гринберг также указала на то, что член СД — это лицо, которое несет ответственность за решения. «ИИ — это не лицо, не гражданин и не организация, — приводит слова юриста Forbes.kz. — У него нет прав, обязанностей, а главное — и ответственности. Он не может быть привлечен к суду, не может подписывать документы, не обязан раскрывать информацию о себе. Юридически SKAI просто не существует как субъект. Его назначение — это красивая метафора, но не правовой факт. Решения, в которых участвует искусственный интеллект, могут быть оспорены и даже признаны несостоятельными, недействительными, ведь голосовал несуществующий член».

Все перечисленные события и приведенные высказывания относятся к октябрю-ноябрю. То есть к периоду до того, как под принятым Парламентом и вступающим в силу в январе 2026 года Законом «Об искусственном интеллекте» свою подпись поставил Президент Касым-Жомарт Токаев. Как уже отмечало «Новое поколение», Казахстан стал первым государством и вторым после Евросоюза субъектом международного права, принявшим закон об ИИ.

В нем вопросы, поднятыми Темирбаевым, Турехановым, Гринберг и солидарными с ними специалистами, освещены лишь применительно к авторскому праву, да и то не вполне, на что также обращало внимание «Новое поколение». Поэтому логика Генпрокуратуры, передавшей неудобное для Правительства письмо в МИИЦР, прозрачна как стеклышко: не мы эту кашу с роботом в человеческом органе управления заварили, не нам ее и расхлебывать.

Обесценивание человека

Оставим правовые разборки профессионалам. Не меньшую озабоченность вызывают вероятные общественные, политические и морально-психологические последствия решения Правительства о введении в совет директоров ФНБ «Самрук-Казына» робота с правом голоса. Ведь фактически высшая исполнительная власть наделила нейросеть одним из прав человека.

Не исключено, что это «революционное» решение Правительства было вдохновлено опытом Саудовской Аравии. Она в 2017 году впервые в мире предоставила свое гражданство женоподобному роботу Софии. Достаточно сказать, что официальные электронные ресурсы и Правительства, и «Самрук-Казына» показывают нейросеть SKAI в образе красивой женщины, которая докладывала 17 октября главе Правительства Олжасу Бектенову о славных делах ФНБ, естественно, женским голосом.

Созданный саудитами прецедент вызвал широкий резонанс. Среди комментаторов события был и американский ученый-информатик из Луисвилльского университета Роман Ямпольский. На портале The Conversation Ямпольский рассказал, как его соотечественник юрист Шон Байер убедительно показал, как в Америке кто угодно может дать личностность компьютерной системе. Например, сделав ее подконтрольной обществу с ограниченной ответственностью (ООО). Если этот маневр рассматривается в суде, то ИИ также может обладать имуществом, подавать в суд, нанимать юристов и пользоваться свободой слова наряду с другими законными людскими правами. В результате может пострадать человек, считает профессор Ямпольский.

По его словам, если системы ИИ станут умнее человека, то люди, по сути, могут стать рабами корпоративных ИИ-господ, которые будут их нанимать и увольнять. Но даже если не заходить так далеко, системы ИИ могут со временем получать работу в правоохранительных органах, армии и других государственных и законодательных органах наравне с человеком. Предоставление права на голосование системам, способным копировать себя, может привести к обесцениваю человеческих голосов не только на выборах.

В итоге это приведет к тому, что во всех сферах жизни решения будут принимать корпорации, руководимые ИИ. Между тем, как отмечает Ямпольский, нигде нет законов, которые бы препятствовали враждебному ИИ, работающему над порабощением или даже над уничтожением человечества за счет политического и законодательного давления.

Со времени комментария Ямпольского минуло около восьми лет. По современным меркам, это слишком большой период, чтобы принимать во внимание тревогу американского ученого. Но если так, то извольте ознакомиться с мыслями главы ИИ-подразделения корпорации Microsoft Мустафы Сулеймана образца 2025 года.

Скатываясь в темную нору

В своем блоге Сулейман развивает идею о том, что ИИ может провоцировать особый тип психоза: «Моя главная обеспокоенность заключается в том, что многие люди начнут так сильно верить в иллюзию ИИ как сознательных сущностей, что вскоре будут выступать за права ИИ, благополучие моделей и даже гражданство ИИ. Такое развитие событий станет опасным поворотом в прогрессе ИИ и заслуживает нашего немедленного внимания».

Для обычного человека ИИ не только всегда прав, но и всегда готов к разговору. Как подчеркивает Сулейман, это может привести к тому, что пользователи начнут обожествлять ИИ как высший разум или поверят, что он обладает «буквально космическими ответами». Понятна тревога Сулеймана, напомнившего, что в 2025 году пользователь поверил советам модели ИИ ChatGPT и прекратил употреблять соль, заработав редчайшее хроническое заболевание.

Мустафа Сулейман убежден, что ИИ никогда не должен заменять человека, а ИИ-инструменты нуждаются в «ограждениях», чтобы ИИ мог заниматься только той работой, которая ему поручена человеком. Сулейман добавляет, что некоторые всерьез изучают идею благополучия моделей, что, по сути, представляет собой иллюзорную веру в то, что мы имеем моральные обязательства перед существами, которые могут обладать сознанием.

Сулейман заявляет: «Это не только преждевременно, но и откровенно опасно. Нам нужно быть ясными: SCAI или кажущийся сознательным ИИ — это то, чего следует избегать». По его словам, SCAI представляет собой комбинацию языка, эмпатичной личности, памяти, заявлений о субъективном опыте, чувства собственного «я», внутренней мотивации, постановки целей и планирования, а также автономии.

Сулейман утверждает, что такие качества не появятся в моделях ИИ естественным образом. Они возникнут только тогда, когда некто их спроектирует, создав и объединив перечисленные возможности, совокупность которых произведет впечатление SCAI. Заканчивая свои размышления, Сулейман предупреждает: «Кто-то из вашего окружения может начать скатываться в кроличью нору веры в то, что их ИИ — сознательная цифровая личность. Это нездорово ни для них, ни для общества, ни для тех из нас, кто создает эти системы. Мы должны создавать ИИ для людей, а не чтобы заменить им личность».

Прецедент, созданный Правительством РК, вызывает далеко не лучшие ассоциации с широко известными художественными образчиками. В первую очередь — с киноэпопеей «Терминатор». Диву даешься, каким местом думал человек, нарекший самруковскую нейросеть SCAI. Ведь это имечко созвучно со Skynet («Небесная сеть») — главным антагонистом в «Терминаторе», боевой информационно-управляемой системой, детища которой нацелены на разрушение и уничтожение человечества. Да и Мустафа Сулейман обозначает то, чего нам следует избегать, именно аббревиатурой SCAI.

Допускаю, что Правительство в лице МИИЦР выкрутится-таки из щекотливого положения, как оно выкрутилось, например, навязав народу единый часовой пояс. Выкрутиться-то выкрутится, но как насчет народного доверия? Нежелание признавать и исправлять свои ошибки — признак не силы, а дрожи в коленках. Слабаки, бегущие впереди паровоза.

Читайте в свежем номере: