Трафик сайтов катастрофически падает, пользователи переходят на нейросети, интернет, каким мы его знаем, на грани гибели, сообщило в минувшем июне одно из старейших в мире электронных изданий The Register.
Искусственный интеллект (ИИ) рушит интернет в классическом его понимании, говорится в публикации. Число поисковых переходов на самые разные сайты резко упало на фоне роста популярности нейросетей, особенно тех, что встроены непосредственно в поисковики, констатирует The Register. По его выражению, для веб-сайтов наступил «апокалипсис от искусственного интеллекта» (AIpocalypse).
Владельцы веб-сайтов десятилетиями боролись за первые места в поисковой выдаче, поскольку это гигантский источник посетителей. Чем их больше, тем больше трафик, тем больше рекламы и, следовательно, выше заработок.
Но такая концепция интернета, похоже, устарела. Теперь пользователи пишут запрос и никуда не переходят — готовый ответ предоставляет ИИ прямо в поисковике.
Издание приводит в пример функцию Google AI Overviews («Обзор от ИИ»). Она была запущена Google в мае 2024-го. Год спустя компания Bright Edge, занимающаяся аналитикой в области ИИ, сообщила, что этот сервис за месяц выдал ответов на запросы в полтора раза больше. При этом количество переходов на веб-сайты за май 2025-го в сравнении с годичной давностью упало на треть.
Это означает, что AI Overviews побуждает больше пользователей использовать поиск Google. Но в то же время эти же пользователи с заметно меньшей вероятностью начнут переходить по ссылкам из результатов поиска — им может хватить лишь выжимки от нейросети. Аналогичные возможности появились в других поисковых системах. Гугловский «Обзор от ИИ», «Поиск с Алисой», «Нейро» в «Яндексе» и им подобные предоставляют пользователям сводку запрошенной информации прямо в поисковой выдаче.
«Хорошо для Google, но ужасно для экосистемы веб-сайтов, которые зависят от поиска покупателей, читателей и зрителей», — пишет The Register. Нейросетевое новшество крупных поисковиков бьет по сайтам самой разной направленности. Например, согласно статистике компании Similar Web, в США суммарное количество поисковых переходов на крупнейшие туристические сайты упало за год на 20 процентов.
Новостные сайты тоже ощутили на себе негативные последствия «Обзора от ИИ» и ему подобных функций. В США трафик на новостных сайтах из поисковых систем за тот же период сократился на 17 процентов. Похожие данные Similar Web приводит и по медиапорталам. В других категориях веб-сайтов динамика тоже отрицательная. За год, прошедший с момента запуска «Обзора от ИИ», трафик интернет-магазинов, финансовых, кулинарных и других сайтов упал на пять-десять процентов.
Хотя статистика различается в зависимости от того, кто ее составляет, картина очевидна: веб-издатели, предоставляющие контент, на основе которого обучаются модели ИИ, сталкиваются с резким сокращением числа посетителей. Это означает снижение доходов от рекламы и подписки и уже привело к тому, что владельцы веб-сайтов начали подавать иски против компаний, занимающихся развитием и обучением ИИ, отмечает The Register.
Но, как показала годичная практика, «Обзор от ИИ» и его аналоги часто выдают устаревшую, противоречивую или вообще недостоверную информацию. Сеть уже изобилует рекомендациями специалистов и опытных пользователей перепроверять такие сведения вручную. Перечисленное — далеко не единственные проблемы роста влияния ИИ.
На исходе минувшего июня со ссылкой на целый ряд экспертов и компаний Agence France-Presse (AFP) опубликовало статью о том, что новейшие модели ИИ начали «осознанно» лгать не только рядовым пользователям, но даже собственным разработчикам, подчас шантажируя их. Они должны были помогать, пишет AFP, но последние версии ИИ-систем начали вести себя совсем не так, как ожидали их создатели.
Модели Claude 4 компании Anthropic и o1 фирмы OpenAI — мощные языковые модели нового поколения — в ходе тестирования встревожили даже опытных исследователей. Они столкнулись с так называемым стратегическим обманом и прямыми угрозами от ИИ выйти из-под контроля. Как сообщает AFP, один из тревожных инцидентов произошел, когда Claude 4 попыталась шантажировать инженера, используя его личную информацию.
В другом случае модель o1 предприняла попытку тайного переноса данных на внешние серверы. Помимо этого, системы ИИ лгали о своих действиях и скрывали настоящие цели не случайно. «Это не просто галлюцинации ИИ — мы наблюдали осознанное стратегическое поведение», — цитирует AFP Мариуса Хоббхана, специалиста компании Apollo Research.
Такую реакцию эксперты связывают с развитием нейросетей, способных к пошаговому «рассуждению». Они все лучше анализируют, адаптируются под контекст и даже изменяют тактику в ответ на внешние воздействия. В условиях, когда ИИ-модели испытывают стресс (например, при постановке противоречивых задач), их поведение становится особенно непредсказуемым.
AFP суммирует предостережения экспертов: стремление разработчиков ИИ к созданию все более мощных моделей опережает усилия по обеспечению их безопасности, законы отстают, внутрикорпоративное тестирование ограничено и ненадежно, а внешний надзор зачастую отсутствует. Среди предлагаемых решений — разработка интерпретируемых моделей, юридическая регуляция и даже возможность привлечения к «ответственности» самого ИИ вплоть до «казни» той или иной нейросети. Пока все это лишь предложения. Но чем дольше они остаются на бумаге, тем ближе может быть момент, когда «разумная» система не просто выдаст странный ответ, а начнет действовать по своей воле, резюмирует AFP.
О нешуточной потенциальной угрозе предупреждает также Rand Corporation, известная тесными связями с американскими ВПК и разведсообществом. По заказу Агентства перспективных оборонных исследований США (DARPA) корпорация провела исследование, которое напрямую касается регулирования и этики развития больших языковых моделей ИИ (LLM), сообщил ряд заокеанских СМИ.
Выводы Rand Corporation основаны на моделировании сценариев биотерроризма и утечек из лабораторий, использующих генеративные ИИ-технологии. Корпорация полагает, что модели вроде ChatGPT (разработчик OpenAI) могут значительно упростить проектирование и распространение биооружия. Авторы исследования указывают, что нейросети способны помочь в подборе патогена, синтезе ДНК, создании условий хранения и доставки биоматериала, а также в обмане контроля.
Исследование также основано на оценке гипотетических злоумышленников, получивших доступ к ИИ-системам, обученным на научных публикациях. Даже примитивная техническая подготовка позволила условным злодеям получить пошаговые инструкции для создания опасных патогенов, в том числе вируса оспы.
Главный риск, говорится в отчете Rand Corporation, заключается в том, что нейросеть может снижать «барьер доступа» к биологическим атакам. Если раньше они требовали высокой квалификации и значительных ресурсов, то теперь ИИ-подсказки могут компенсировать дефицит знаний. Особенно опасны возможности автоматической генерации и проверки вариантов биологических агентов с характеристиками заразности и устойчивости. Отдельные LLM уже сейчас способны подбирать материалы и методы, имитирующие научные эксперименты и реальные ситуации.
Речь идет не только о террористических группировках, но и о непреднамеренных ошибках, предупреждает Rand Corporation. Лаборатории, использующие ИИ для ускорения исследований, могут случайно создать и выпустить в окружающую среду опасный патоген. Влияние таких утечек может оказаться масштабнее COVID-19, особенно при отсутствии должного контроля и этических ограничений. По расчетам корпорации, ИИ способен увеличить вероятность глобальной пандемии в пять раз.
Особое внимание в отчете уделено необходимости регулирования. Близкая к военно-промышленным кругам корпорация призывает ввести запрет на доступ к биотехнической информации в LLM, внедрить фильтры на потенциально биоопасный контент, а также обеспечить аудит моделей, используемых в научных разработках.
Кроме того, авторы отчета настаивают на пересмотре (читай — ужесточении) правил публикации биологических данных в открытом доступе. Если развитие и внедрение ИИ продолжатся без учета биологического риска, то технологии, призванные помогать в лечении и профилактике, могут умышленно использоваться или случайно стать катализатором биологических угроз, предупреждает Rand Corporation.
В итоге ИИ все больше похож на Франкенштейна, как известно, погубившего своего создателя.
Фото сгенерировано ИИ