Мы в соцсетях:

Новое поколение
  • Введите больше 3 букв для начала поиска.
Все статьи
articlePicture
ИсследованияТехнология

Первый закон робототехники

Искусственный интеллект для идеологической безопасности страны

В апреле Президент Казахстана Касым-Жомарт Токаев провел заседание Национального совета по науке и технологиям. Одним из приоритетных направлений он выделил обеспечение глобальной безопасности государства. 

Несколько лет назад молодой ученый Айсулу Абенова, предвосхищая сегодняшний всплеск интереса к искусственному интеллекту, начала разрабатывать идеи машинного обучения, в том числе предлагая новые технические задания по использованию ИИ. Защищая диссертацию PHD в Академии государственного управления при Президенте РК, она предлагает практическое использование инструментов искусственного интеллекта для информационно-идеологической безопасности Казахстана, его влияния на общественное мнение в стране. Молодежь — наиболее прогрессивная часть нашего сообщества, было любопытно пообщаться с молодым ученым на актуальную тему. 

Новые технологии управления общественным мнением в РК

Сейчас Айсулу продолжает заниматься изучением новых технологий управления общественным мнением в стране. 

— Эта тема заинтересовала меня из-за многочисленных обращений граждан на имя главы государства и руководства страны. Я задумалась, какие есть пути для ускорения и автоматизации этого вопроса. Другая часть исследования заинтересовала возросшей ролью социальных сетей в обществе и их влиянием на общество. Меня впечатлил феномен социальных сетей, который оказался вовсе не безобидным, — делится Айсулу. — Сегодня он стал политической платформой, из-за которой происходят государственные перевороты, с помощью которой оказывается давление на правосудие, создаются ячейки общества с деструктивным характером. Анализируя социальные сети, я плавно вышла на машинное обучение, являющееся одним из винтиков искусственного интеллекта. Мне захотелось привнести в сферу ИИ в нашей стране больше прикладного характера, поэтому мы вместе с моим научным руководителем решили разработать программу, которая может вычислять положительные и негативные комментарии в социальных сетях. Здесь хотела бы внести ясность, что разработка математических вычислительных программ не есть искусственный интеллект. В него входят такие дисциплины, как машинное обучение, глубокое обучение, обработка естественного языка и компьютерного зрения, распознавание речи, теория автоматического управления и так далее. И в совокупности мы получаем интеллектуальную машину. Когда речь идет об исследовательских проектах, разработка идей, алгоритмов и программного обеспечения может занять значительное время и потребовать значительных усилий. Понимаю, что мои изыскания пока не идеальны и не способны сработать одним кликом, но предлагаемый мной алгоритм может быть использован для наращивания идеи, являясь важным шагом в процессе разработки более точной модели. 

ИИ на практике и риски его использования

— Искусственный интеллект безграничен, а его инструменты могут быть основой успешного бизнеса, использоваться в медицине, других сферах, в целом в обеспечении безопасности страны. ИИ можно разделить на три вида. Первый — узкий, применяемый для решения конкретных задач. К примеру, это программа Narrow AI, включающая онлайн-переводы, рекламу в соцсетях, распознавание лиц, поиск данных, игру в шахматы, голосовые автоответчики — то, чем мы сейчас пользуемся в повседневной жизни. Narrow AI обычно основан на специфических алгоритмах и моделях, оптимизированных для конкретных задач и областей применения, — поясняет ученый. — Второй, сильный, — Strong AI, и третий — это супер ИИ. Strong AI предполагает решать широкий спектр задач наравне с человеческим интеллектом. Однако в настоящее время Strong AI все еще остается большой теоретической концепцией. Возможно, в будущем технологии развития Strong AI станут более реальными, но на текущий момент мы еще находимся на этапе развития узкоспециализированных систем ИИ. Понятие Super Artificial Intelligence (SAI) относится к концепции искусственного интеллекта, обладающего самосознанием, способностью к самоулучшению и созданию новых алгоритмов, машине, превышающей человеческие возможности. Ученые соглашаются с тем, что на развитие такого уровня искусственного интеллекта может потребоваться время до 2100-х годов, если вообще это будет достигнуто. Основное преимущество любого вида ИИ заключается в его способности обрабатывать информацию на высокой скорости и потенциально исключать ошибки, обусловленные человеческим фактором. 

Различные применения ИИ могут быть важными инструментами для общественного благополучия. Один из примеров — использование ИИ для выявления патологий и предупреждения суицидальных настроений у школьников и студентов. 

— Я разрабатывала техническое задание для наращивания потенциала в этой сфере, — говорит Айсулу. — Автоматизированные системы могут обрабатывать данные о поведении, коммуникациях молодежи, а также анализировать содержимое электронных писем или сообщений, чтобы выявлять признаки тревожности и своевременно предостерегать окружение. Также в качестве примера можно упомянуть, что ИИ можно использовать для принятия решений в таких сферах, как выбор участков для строительства ЖК, посев и сбор урожая, что позволит значительно повысить эффективность в этой области. Фотографии спутников и другие данные, анализируемые с помощью алгоритмов машинного обучения, также могут обеспечить ценную информацию, упростить процессы и уменьшить возможные ошибки в принятии решений. Как пример можно также привести мониторинг социальных настроений разных страт общества, мониторинг и выявление настроений и деструктивных призывов в соцсетях, мониторинг отношения общества к проводимым государственным реформам, выявление острых и болевых проблем региона, волнующих граждан, мониторинг и составление рейтинга администрации регионов, конкретных акимов, выявление политических настроений и требований жителей региона, мониторинг межнациональных и межэтнических отношений в регионе и многое другое. Однако все эти действия должны учитывать этические и конфиденциальные вопросы, чтобы гарантировать безопасность исследуемых данных, а также уважать права и свободы личности. 

По убеждению Айсулу, транснациональные корпорации, такие как Apple и Google, обладают огромной властью в качестве поставщиков коммуникационных средств. Их платформы и сервисы стали неотъемлемой частью нашей повседневной жизни, используя мобильные телефоны и обеспечивая связь между пользователями. Более того, эти компании предлагают «скрытую» механику коммуникационного изобилия через свои алгоритмы, которые управляют поиском информации и рекламным контентом. 

— Наверное, вы не раз сталкивались с всплывающей рекламой чего-то, о чем думали недавно. Важно осознавать, что эти алгоритмы не могут существовать в социально-политическом вакууме. Опасность заключается во влиянии на формирование общественного мнения, распространение информации и даже на политические процессы. Поэтому важно обращать внимание на вопросы прозрачности, ответственности и этики при разработке и использовании таких алгоритмов, — отмечает Айсулу Абенова. 

Если еще говорить о минусах ИИ, то стоит понимать, что создание монополии в интернет-пространстве может серьезно подорвать принципы демократии. А это может привести к ситуации, когда одно мнение или источник информации вытесняются из общественного дискурса, в то время как другой получает преимущественный доступ к аудитории. Такие сценарии несут в себе риск злоупотребления политической властью в интересах крупных корпораций, которые могут использовать свои ресурсы для приватизации политики и стать влиятельными политическими акторами. 

— Для поддержания здорового демократического окружения в интернете важно стремиться к разнообразию и открытости информационного пространства, к соблюдению прозрачности и справедливости в деятельности интернет-корпораций. Это поможет предотвратить возможные искажения в общественном мнении и сохранить принципы демократии в цифровой эпохе, — считает Айсулу. 

bd8efe36-ed96-49ea-b608-3720154806d9.jpg

Как защитить свою конфиденциальность? 

Бояться ИИ нет смысла, говорит Айсулу Абенова, так как полагает, что искусственный интеллект может улучшить жизнь людей, предоставляя инструменты для решения сложных проблем в науке, медицине, бизнесе и других сферах. 

Управленческому аппарату, к примеру, ученый рекомендует создание кооперации и сотрудничества между исследователями ИИ, гражданским обществом и политиками. Для подобного взаимодействия необходима организация международной площадки. 

— Такая организация должна заниматься формированием новой нормативно-правовой системы, обеспечивающей международную безопасность в контексте возможных угроз со стороны недобросовестного применения ИИ. Одной из значимых инициатив в этом направлении стала конференция в Калифорнии в 2017 году, вопросы которой посвящались преимуществам и проблемам искусственного интеллекта, — говорит Айсулу. — В ней участвовали Рэй Курцвейл, Илон Маск, Стивен Хокинг, Демис Хассабис, Янн Ле Кун и десятки других всемирно признанных ученых и экспертов в сфере ИИ и смежных областях. На этой встрече были приняты Азиломарские принципы искусственного интеллекта, закладывающие основу для исследования этических норм в этой сфере. На мой взгляд, в Азиломарских принципах ИИ затронуты весьма важные ориентиры по обеспечению глобальной безопасности в условиях технологического прогресса. Эти принципы представляют собой наиболее последовательное руководство, касающееся вопросов этики. С полной уверенностью могу сказать, что Казахстану также необходимо придерживаться и внедрять подобные принципы, чтобы поддерживать прочный баланс между интересами общества и его отдельных членов, между гарантиями безопасности и необходимостью экспериментов и инноваций. 

Мы уже живем во время ускоренного развития технологий и искусственного интеллекта. Было бы верным, чтобы им занимались настоящие патриоты государства, профессионалы и эксперты своего дела под гласным общественным контролем. 

Фото Айсулу Абеновой 

Читайте в свежем номере: