Мы в соцсетях:

Новое поколение
  • Введите больше 3 букв для начала поиска.
Все статьи
Одна голова хорошо, а с ИИ... (промпт)
ПравоЗаконотворчество

Одна голова хорошо, а с ИИ... (промпт)

В Казахстане принят Закон "Об искусственном интеллекте"

Коллаж WELAR

Человек задает ИИ промпт, а искусственный интеллект, в свою очередь, ставит перед человечеством экзистенциальные вызовы. Он меняет систему прав человека, международное и авторское право, вообще ставит под сомнение все, что прежде считалось аксиомой: от очевидных фактов вроде видеоролика до суверенитета государств. Ответить на эти вызовы должен принятый в Казахстане Закон "Об искусственном интеллекте", который будет введен в действие 18 января 2026 года. Между прочим, это второй такой закон в мире после европейского Artificial Intelligence Act, который вступил в силу в прошлом году.

Получилось ли у разработчиков создать отвечающий всем футуристическим вызовам документ-инструмент? Нет, конечно. Учитывая, что статей в законе всего 31, и что ИИ стремительно эволюционирует. Как сказала в своей речи на слушаниях по закону депутат Мажилиса и руководитель рабочей группы Екатерина Смышляева: "Технологии развиваются быстрее, чем мир успевает осмыслить их последствия... Возможно, через пять лет мы будем смотреть запись сегодняшнего обсуждения с улыбкой, понимая, где переоценили темпы, а где недооценили масштабы перемен".

Но, как говорится, с чего-то надо начинать. На какие ранее нерешенные вопросы новый закон все же ответил?

Как не допустить "бунта машин"

И это уже не антиутопия, а реальная проблема. Государство в данном законе официально допускает, что искусственный интеллект способен нанести такой вред, который приведет к "значительным негативным последствиям для обороны, безопасности, международных отношений, экономики, отдельных сфер хозяйства, пользователей, инфраструктуры РК, жизнедеятельности физических лиц".

В статье 17 закона системы ИИ, способные причинить такой вред, относятся к высокой степени риска. И потому они могут быть только государственными или приравниваться по части требований к ним (аудит ИИ) к государственным.

Например, удаленная биометрическая идентификация физических лиц в реальном времени, в общественных местах. Напомним, в целях национальной безопасности систему распознавания лиц с участием ИИ в Казахстане внедрили еще год назад, в 2024-м. Но то спецслужбы. Если же подобную систему захочет поставить, скажем, в фойе гостиницы ее владелец, она вряд ли пройдет аудит. Впрочем, поживем — увидим...

Кроме того, на территории РК запрещаются создание и эксплуатация систем искусственного интеллекта, обладающих одной из функциональных возможностей.

Это, во-первых, использование подсознательных, манипулятивных и других подобных методов, искажающих поведение физического лица, подавляющих волю или вынуждающих принимать решения против воли.

Во-вторых, использование моральной и физической уязвимости физического лица из-за возраста, инвалидности, социального положения и любых иных обстоятельств в целях причинения вреда.

В-третьих, оценка и классификация физических лиц в течение определенного периода времени на основе их социального поведения или личных характеристик.

Близкое, но все же другое — классификация людей на основе их биометрических данных для формирования выводов об их расе, политических взглядах, религиозной принадлежности и по любым иным критериям в целях использования для какой-либо дискриминации.

Следующее — запрещаются сбор и обработка персональных данных с нарушением законодательства РК о персональных данных и их защите.

Кроме того, определение эмоций физического лица без его согласия за исключением случаев, предусмотренных законами РК.

И, наконец, создание и распространение запрещенных законами РК результатов деятельности систем искусственного интеллекта.

Кто автор?

Другой вызов — Бернская конвенция (об авторских правах) не отвечает на вопрос об авторстве машинных произведений. Да и национальные законы — тоже.

При этом люди все чаще создают некие произведения: тексты, графику, музыку, видео, фото с использованием ИИ, задавая запросы размножившимся нейросетям. Кто владелец полученных результатов: собственник какого-нибудь ChatGPT или пользователь, сделавший промпт? Или они соавторы? Или есть еще третье лицо, которое имеет авторские права на результат?

К примеру, модели Claude 3.5 Sonnet казахстанский пользователь ставит задачу написать стихи на определенную тему (дождь и память) в стиле разных поэтов: от Пушкина до Бродского. Читаем статью 23 Закона РК "Об искусственном интеллекте": "Текстовые запросы, направляемые в системы искусственного интеллекта, являющиеся результатом интеллектуальной творческой деятельности человека, признаются объектами авторского права в соответствии с законодательством РК об авторском праве и смежных правах".

Ок, запрос — интеллектуальная собственность пользователя, его сделавшего. А что с самим ответом? Он кому принадлежит? Читаем далее: "Произведения, созданные с использованием систем искусственного интеллекта, охраняются авторским правом только в случае наличия творческого вклада человека в их создание".

Что это значит? Если промпты задают пользователи, это уже их творческий вклад. И они имеют право интеллектуальной собственности на те произведения, которые создали с помощью системы ИИ. Что логично: ведь для того они продуктом и пользуются.

По общему правилу право авторства не нужно подтверждать. Оно по умолчанию принадлежит тому, кто, скажем, поставил свою фамилию под текстом. Однако авторство можно оспорить. Ведь творческий вклад имеется как со стороны пользователя, так и со стороны создателя — собственника системы ИИ, поэтому они, скажем так — соавторы. На практике это означает, что пользователи — авторы промптов могут использовать созданные произведения с участием ИИ как собственность, однако владельцы систем ИИ всегда могут заявить о своих правах тоже.

Однако есть и третья сторона — автор, которому подражают. С Пушкиным ладно, его творчество давно перешло в статус общественного наследия. А вот у того же Бродского наверняка есть наследники. Вправе ли владельцы источника претендовать на результаты, созданные с участием ИИ?

Опять читаем закон: "Использование произведений для обучения моделей искусственного интеллекта допускается только при отсутствии запрета со стороны автора или правообладателя, выраженного в машиночитаемой форме".

Уточним, процесс обучения продолжается в системах ИИ и после того, как "поступили на рынок", то есть стали доступны для пользователей. Поскольку нейросети обучаются и тем, что "переосмысляют" результаты, полученные в результате пользовательских промптов.

Итак, установлена презумпция согласия правообладателей на источники (в рассматриваемом примере — на тезаурус Бродского): не запрещено, да еще машиночитаемо, то есть понимаемо не человеком, а алгоритмом — значит, разрешено.

И эти правообладатели также могут обратиться в суд для признания их соавторами. Но если запрет есть, то никакой самодеятельности!

Запрет на дипфейки

Наконец, вводится запрет на дипфейки и вообще распространение продукции с использованием ИИ без специальной маркировки. Такое требование содержится в Законе РК "Об искусственном интеллекте" в статье 21: "Пользователи должны быть проинформированы о том, что товары, работы и услуги произведены или оказываются с использованием систем искусственного интеллекта. Распространение синтетических результатов деятельности систем искусственного интеллекта допускается только при условии их маркировки в машиночитаемой форме и сопровождения визуальной либо иной формой предупреждения".

Уточним, "синтетические результаты деятельности систем искусственного интеллекта — изображение, видео, аудио, тексты или их комбинации, созданные или измененные системой искусственного интеллекта, имитирующие внешность, голос, поведение физического лица или события, которые фактически не происходили".

Так вот, если маркировки на подобных "художествах" нет, согласно новой статье 641-1 КОАП — штраф: от 15 МРП на физических лиц до 100 МРП на крупный бизнес.

Правда, привлекать к ответственности по этой статье будут лишь собственников (владельцев) систем ИИ. А если фейки "грузит" в интернете пользователь, с ним как?

Здесь тоже появляется ясность — и не только с фейками в интернете, а вообще в информационном поле. Дело в том, что, помимо принятия самого закона об ИИ, вносятся сопутствующие правки и в другие законы, в частности, в Закон РК "О масс-медиа", где (пункт 7 статьи 14) появляется текст следующего содержания: "Распространение продукции масс-медиа, созданной с использованием системы искусственного интеллекта, допускается только в случае обеспечения информирования о такой продукции в соответствии с Законом РК "Об искусственном интеллекте".

Речь, как вы поняли, идет о той самой маркировке. Типа «сделано с использованием ИИ»!

Что важно, под словом масс-медиа понимаются не только средства массовой информации, но и все так называемые интернет-ресурсы: онлайн-платформы, порталы и сайты самого разного направления. Разумеется, блогеры (как пользователи онлайн-платформ).

И всякий такой интернет-ресурс обязан соблюдать определенные требования, предъявляемые к масс-медиа соответствующим законом, в том числе, что касается ИИ, благодаря процитированной выше поправке. То есть не выдавать сгенерированное с помощью ИИ за созданные человеческим трудом произведения.

Что важно: поскольку масс-медиа не собственники систем ИИ, а пользователи, их нельзя привлечь к ответственности по упомянутой новой статье 641-1 КоАП. Однако в Казахстане есть ответственность за распространение ложной информации, предусмотренная статьей 456-2 КоАП. И отсутствие сопровождающей материалы маркировки по новым правилам как раз под нее подпадает. А отсюда штрафы:

— 20 МРП — на пользователей онлайн-платформ;

— 30 МРП — на блогеров, малый бизнес, некоммерческие организации;

— 50 МРП — на субъектов среднего предпринимательства;

— 100 МРП — на крупный бизнес.

Если же заведомо ложной информацией причинен существенный вред правам и законным интересам граждан, организаций, общества, государства, создана опасность нарушения общественного порядка, например, дипфейк с политическим окрасом, это уже уголовная ответственность (пп.3) части 2 статьи 274 УК). Наказывается штрафом до 3000 МРП, а то и лишением свободы до трех лет.

Пока не совсем понятно, как собираются доказывать использование ИИ, например, при написании журналистских статей. Интуитивно это сразу чувствуется, но эмоции к делу не приложишь. Посмотрим.

А потом еще раз пересмотрим.

Читайте в свежем номере: