Антикейс: Как мы случайно заблокировали поисковый трафик из Google

Константин Булгаков
Константин Булгаков
19 мая.2025
Мы «выключили» трафик из Google из-за ошибки в блокировке ботов. Разбираемся, как это произошло, и как избежать подобных ситуаций.


В августе 2024 года отчеты в Метрике показали резкий рост мобильного трафика с Android 13 и 14 из Яндекса. Визиты сопровождались высоким процентом отказов (30–40%) и не приводили к целевым действиям. После проверки стало ясно: это боты.

Мы собрали больше информации и передали данные разработчикам, чтобы те проанализировали логи и предложили решение. Но из-за несогласованности подрядчик заблокировал IP-адреса, которые оказались… роботами Google.

Ошибку заметили только в середине января, когда позиции в поиске уже рухнули. На графике ниже новогодний кошмар маркетолога.

Динамика запросов в ТОПе Google

Падение и медленное восстановление

Даже после отмены блокировки 16 января восстановление позиций заняло месяцы. К маю 2025 года трафик вернулся только к уровню декабря 2024, но остался на 23,8% ниже, чем за аналогичный период годом ранее.

Динамика визитов на сайт из поиска Google

Вероятно, Google переиндексировал страницы повторно, и часть из них потеряла доверие алгоритмов — поисковая система пересчитала показатели и понизила документы в выдаче.

Чему нас научила эта ошибка

Чтобы вы не повторили наших ошибок, зафиксирую краткие выводы по этому кейсу.

  1. Разработчики не должны решать маркетинговые задачи в одиночку. Блокировку IP-адресов нужно согласовывать с SEO-специалистами или маркетологами. В нашем случае подрядчик действовал без проверки списка IP-адресов поисковых роботов, хотя эти данные есть в открытом доступе;
  2. Контроль рисков на этапе постановки задачи. Мы не оценили последствия блокировки для SEO. Теперь перед подобными изменениями проговариваем возможные сценарии и риски. После обсуждения идем по плану, решаем задачу с контролем на каждом этапе;
  3. Ищем более изящные методы решения задачи. Вместо блокировки IP можно было использовать систему защиты от интернет-ботов reCAPTCHA или Cloudflare для защиты сайта. Перечисленные решения уже широко используются и защищают веб-проекты от вредоносных ботов.

Что делать, если столкнулись с бот-трафиком

Теперь несколько рекомендаций, которые помогут заблокировать вредоносный трафик на сайт и не допустить ошибок.

  1. Изучите логи сервера и сравните подозрительные IP-адреса с официальными списками поисковых роботов от Google и Яндекса. Эти данные находятся в открытом доступе, и такая проверка помогает избежать случайной блокировки полезных ботов;
  2. Изменения лучше тестировать на небольшой части страниц, а потом выкатывать для всего сайта. Это поможет выявить возможные ошибки и недопустить серьезных проблем. Главное — согласовывать действия с SEO-специалистами, чтобы случайно не заблокировать чего-нибудь лишнего;
  3. Анализируйте логи, отчеты веб-аналитики и инструменты вроде Google Search Console и Яндекс.Вебмастера для диагностики и выявления возможных проблем после внедрения на сайте изменений.

Выводы

Ошибка стоила нам времени и трафика, но стала полезным уроком. Теперь мы работаем над процессами, которые помогут исключить подобные сценарии.

В следующей статье расскажу, какие решения мы внедрили для блокировки роботов и поделюсь результатами: как удалось снизить ботные визиты, побороть телефонный спам и почистить заявки от роботов с форм.

Подпишитесь на Телеграм-канал — тут я делюсь важными для маркетологов событиями, исследованиями и кейсами.

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *