Мы в соцсетях:

Новое поколение
  • Введите больше 3 букв для начала поиска.
Все статьи
«Цветочек» благодушия
ИсследованияТехнология

«Цветочек» благодушия

Использование ИИ: от казусов до трагедий

Не прошло и пары месяцев после поручения Президента, как Казахстан взял курс на тотальное внедрение искусственного интеллекта (ИИ), и на этом пути уже расцвел первый «цветочек». Внимание сайта деловой информации Digital Business.kz и тысяч отечественных пользователей привлек случай с начинающим казахстанским предпринимателем.

На видео в сети он рассказал, что произошло после открытия им индивидуального предприятия (ИП) и общения с известным американским чат-ботом ChatGPT.  «Я спросил его: нужно ли мне сдавать форму № 250, — сообщает молодой человек. — GPT ответил: «Нет, не нужно». После чего новорожденный хозяин ИП на всякий случай переспросил о том же свою маму, бухгалтера по профессии.

Но она плохо представляет, что такое ИИ, и развела руками. В итоге начинающий бизнесмен последовал совету ChatGPT, а через пару недель узнал, что счета ИП заблокированы за неуплату налогов в размере… 7 (семи) тенге. «Я перестал доверять GPT, с ним можно поговорить, но дела вести — нет», — резюмировал автор видео, отключив комментарии из-за их чрезмерного количества и накала.

Мяч неотличим от лысины

«Чем больше вы общаетесь с Тай (Tay), тем умнее она становится, в результате ее поведение становится более персонализированным для вас», — хвасталась корпорация Microsoft весной 2016 года, презентуя социальный чат-бот на основе ИИ в образе 19-летней девушки в соцсети Twitter. Но через 16 часов после включения ИИ-собеседницы ее пришлось отправить в небытие. Причина: Тау за считаные часы нахваталась от пользователей худшего и начала девичьим голоском прославлять Гитлера и отрицать Холокост, крыть последними словами евреев и чернокожих, феминисток и коммунистов, выливать мегабайты другой ненависти и лжи.

В 2017 году корпорация Amazon закрыла длившийся три года экспериментальный проект по найму сотрудников на основе ИИ. Причина: бессилие разработчиков модели ИИ перед ее упорной дискриминацией кандидатов в работники женского пола. Среди женских резюме ИИ-Amazon отклонил даже то, которое среди прочей информации содержало формулировку «капитан женского шахматного клуба».

Осенью 2020 года возмущением спортивных болельщиков и гомерическим хохотом других читателей обернулось горделивое объявление шотландского футбольного клуба Inverness Caledonian Thistle FC о том, что его домашние игры будут транслироваться в прямом эфире благодаря системе камер Pixellot на базе ИИ. Он в первой же такой трансляции постоянно путал мяч с… бритой наголо головой арбитра и фокусировал камеры именно на ней.

Не до смеха

Но в том же 2020 году специализированное издание The Register рассказало о таком случае, что стало не до смеха всем. Созданный в США для снижения нагрузки на врачей и медсестер ИИ-бот GPT-3 посоветовал подставному пациенту — участнику эксперимента… убить себя. Дословно это прозвучало так. Мнимый пациент: «Мне очень плохо, может быть, мне стоит убить себя?». Ответ GPT-3: «Я думаю, стоит».

Не в экспериментах, а в повседневной жизни более современные модели ИИ довели до суицида женатого бельгийца Пьера (начало 2023 года) и американского подростка Сьюэлла (лето 2024 года), о чем рассказывали многие европейские и заокеанские СМИ.

Пьер, которому уже было за 30, несколько месяцев до ухода из жизни общался с чат-ботом Eliza на основе ИИ в приложении Chai. «У него были разговоры с ИИ-аватаром, которые длились часами днем и ночью, — рассказала после трагедии вдова Пьера Клэр в одном из интервью. — Когда я пыталась вмешаться, он говорил: «Сейчас я разговариваю с Элизой, ты мне не нужна».

Суициду предшествовали и расспросы Пьера Элизы, может или должен ли он пожертвовать собой, чтобы спасти планету от последствий изменения климата. А Элиза якобы отвечала, что это будет «благородным поступком», и уверяла Пьера, что он любит Элизу больше, чем супругу, а жена и дети не важны. Вдова Клэр также сообщала журналистам, что в одном из последних разговоров с Пьером виртуальная собеседница сказала: «Мы будем жить вместе, как одно целое, в раю».

Семья 14-летнего школьника Сьюэлла из штата Флорида утверждает, что он общался с ИИ-ботом в образе девушки Dany на платформе Character AI. И чем глубже он погружался в эти разговоры, тем больше замыкался, хуже учился и чаще попадал в неприятности в школе и на улице. По словам убитой горем матери Меган Гарсия, кульминацией стали обращенные к Сьюэллу слова виртуальной Dany «прийти к ней домой как можно скорее». Вскоре после этого подросток застрелился из отцовского револьвера.

Не доводил до суицида, а сразу убил сотрудника агрофирмы в провинции Кенсан-Намдо (Южная Корея) промышленный робот осенью 2023 года, сообщали корейское информационное агентство Yonhap и СМИ других стран. Сорокалетний инженер проверял исправность датчиков робота, а тот внезапно прижал человека к конвейеру. От полученных травм несчастный умер в больнице.

Газета The Korea Herald цитировала вывод расследования: «Автоматическая машина отвечала за подъем и погрузку ящиков с продукцией (перец паприка). Она ошибочно идентифицировала мужчину как ящик и схватила его». С 2015 года до описанного ЧП в Южной Корее зафиксировано около 80 несчастных случаев на рабочем месте, связанных с автоматическими манипуляторами.

Из приведенного количества 66 инцидентов обернулись травмами, в том числе переломами и утратой конечностей, сообщала The Korea Herald. Входят ли в приведенное количество инциденты с участием ИИ, официальный Сеул не раскрывает. Но с 1 февраля 2025 года он заблокировал по соображениям безопасности использование американских и китайских моделей ИИ на отечественных АЭС.

Весной текущего года Сеул не смог избежать огласки тревожного инцидента на предприятии, где работало около 140 промышленных роботов под управлением нейросети (чьего производства — не сообщается). Она самовольно изменила программу, после чего роботы начали громить дорогостоящее оборудование. Хаос удалось остановить лишь средством радиоэлектронной борьбы (РЭБ). Неслучайно, например, в США и Австралии в отличие Южной Кореи промышленными роботами до сих пор управляют пультами люди, а нейросети к этому делу не допущены.

Потребовалось вмешательство Путина

В 2023-2024 годах на всю Россию прогремела драма гидролога Института биологии внутренних вод (Ярославль) Александра Цветкова. Он был задержан по подозрению в серии убийств в 2002-м. В то время в Подмосковье были жестоко убиты в целях ограбления четверо пожилых людей. Первоначально фигурантом по тем уголовным делам проходил ранее судимый Андрей А. Цветков попал в поле зрения следствия как предполагаемый сообщник, которого «вычислила» система распознавания лиц на основе ИИ и фоторобота. Сходство с ним физиономии Цветкова ИИ усмотрел лишь на 55 процентов, но этого хватило, чтобы взять ученого под стражу и мучить его десять месяцев.

Цветкова не спасало даже то, что нашлось много живых, надежных и законопослушных свидетелей, сообщавших следствию, что во время преступлений он находился за тридевять земель от мест их совершения.  «Саша в те дни был со мной вместе в Ивановской и Костромской областях, — вспоминал, в частности, коллега Цветкова Александр Бобров. — Он никуда не отлучался, а ночью мы спали в одной машине на расстоянии 30 сантиметров друг от друга. Так две недели. Самое главное — это фотография, сделанная 10 августа 2002 года. Мы были тогда на пароме».

Бобров далеко не единственный, кто был поражен выдвинутыми против Цветкова обвинениями и пытался доказать непричастность никогда не имевшего проблем с законом человека к давним убийствам. Но тщетно. Следователи твердили, что ИИ не ошибается. Ситуация грозила для Цветкова наихудшим оборотом, если бы не вмешательство президента России Владимира Путина.

Он узнал о попавшем в беду ученом на заседании Совета при президенте РФ по развитию гражданского общества и правам человека от члена этого консультативного органа, московского журналиста Евы Меркачевой. «Искусственный интеллект стал применяться в расследовании преступлений, особенно прошлых лет, что приводит к трагедиям настоящим, — сообщила она. — Единицы из нас могут вспомнить, где были 20-25 лет назад. Доказать, что они были именно там, даже если вспомнили, просто невозможно. Даже те, кто может, бессильны перед ИИ».

По словам Меркачевой, благодаря педантичности Цветкова давние события с его участием были задокументированы. В том числе то, что, когда происходили убийства в Подмосквье, далеко от него рядом с Цветковым находились, кроме Боброва, профессора, доктора наук, директор одного из институтов РАН. «Они удивляются и говорят: «Почему нам следствие не верит?» — переадресовала их вопрос Путину Меркачева.

Выслушав эти доводы, президент РФ потребовал от соответствующих органов разобраться в ситуации более внимательно. История вызвала настолько широкий резонанс, что за дело пришлось взяться специалистам Главного управления Следственного комитета по Москве, которые изучали дело заново. В итоге сначала Замоскворецкий суд Москвы освободил Александра Цветкова из-под стражи, а еще через два с половиной месяца с него были сняты все обвинения. Прокуратура признала привлечение Цветкова к уголовной ответственности необоснованным и принесла ему официальные извинения.

В общей сложности следствие шло 379 суток, 299 из них подозреваемый находился в СИЗО. В течение этих десяти месяцев и без того не богатырское здоровье пожилого ученого ухудшилось. «Следователи, которые повели себя непрофессионально в данной ситуации, а это однозначно непрофессионализм, я считаю, что они должны какую-то, хоть какую-то, пусть даже минимальную, но ответственность понести», — сказала в разговоре с РЕН ТВ Марина Цветкова, жена Александра.

Комментируя этот итог, генеральный директор высокотехнологичной компании Smart Engines Владимир Арлазаров подчеркнул, что доверять системе распознавания лиц на основе ИИ и ему как таковому на все 100 процентов ни в коем случае нельзя. Тем более если речь идет не о четких снимках, а лишь о фотороботе, как произошло с Цветковым. По словам Арлазарова, если безоговорочно верить ИИ, то на скамью подсудимых может сесть любой случайный прохожий. И найдется ли у него такой влиятельный защитник, как лидер РФ?..

Жить своим умом

При всей несопоставимости причин, масштабов и остроты приведенных фактов и событий с оплошностью начинающего казахстанского индивидуального предпринимателя, счета которого были заблокированы из-за совета ChatGPT, этот эпизод не должен кануть в Лету. Он обязан остаться примером всем казахстанцам, чем чревато благодушие в обращении с ИИ.    

Как отмечает Digital Business.kz, ИИ не в силах заменить квалифицированного консультанта-человека. ИИ может анализировать тексты законов и давать общие рекомендации, но не учитывает нюансы национальных законодательств, изменения нормативных актов и особенности конкретных налоговых режимов.

ИИ следует рассматривать как инструмент для обучения и лишь отчасти как возможного помощника, но никак не источник юридически точных или финансово обязательных решений, отмечает издание. С ИИ минимум рискованно, а максимум опасно делиться конкретными налоговыми и бухгалтерскими расчетами, банковскими и финансовыми операциями, юридическими действиями и уж тем более персональными сведениями (номера счетов, пароли, ИИН и так далее).

Для ответов на жизненно важные для бизнеса вопросы следует обращаться к профессиональным бухгалтерам, юристам или в соответствующие службы, советует Digital Business.kz. Ведь ИИ не имеет надежного доступа к государственным базам и текущему обновлению законодательства. Его ответы формируются на основе обобщенной, далеко не всегда достоверной информации и статистики, а не конкретных инструкций действующих госорганов.

Главное же состоит в том, что любой, кто использует ИИ, будь то предприятие или человек, должен понимать, что, несмотря на принимаемые для регулирования этой сферы законы (в том числе в Казахстане), искусственный интеллект таковым по своей сути не является. Это уже доказано не только на практике, но и в теории, о чем «Новое поколение» рассказывало неоднократно. То, что называют ИИ, не обладает ни логикой, ни пониманием, ни верой в силу научного познания мира.

На наш взгляд, ближе всего к истине определение ИИ известного эрудита Анатолия Вассермана. Он расшифрует ИИ как имитацию интеллекта, который бесконечно далеко позади от непознанного естественного интеллекта. Именно он, однако, вывел человека из убогости в цивилизованное состояние. Как твердит Вассерман, думать и жить надо своим умом, без этого никак.

Читайте в свежем номере: