
В августе 2024 года отчеты в Метрике показали резкий рост мобильного трафика с Android 13 и 14 из Яндекса. Визиты сопровождались высоким процентом отказов (30–40%) и не приводили к целевым действиям. После проверки стало ясно: это боты.
Мы собрали больше информации и передали данные разработчикам, чтобы те проанализировали логи и предложили решение. Но из-за несогласованности подрядчик заблокировал IP-адреса, которые оказались… роботами Google.
Ошибку заметили только в середине января, когда позиции в поиске уже рухнули. На графике ниже новогодний кошмар маркетолога.
Падение и медленное восстановление
Даже после отмены блокировки 16 января восстановление позиций заняло месяцы. К маю 2025 года трафик вернулся только к уровню декабря 2024, но остался на 23,8% ниже, чем за аналогичный период годом ранее.
Вероятно, Google переиндексировал страницы повторно, и часть из них потеряла доверие алгоритмов — поисковая система пересчитала показатели и понизила документы в выдаче.
Чему нас научила эта ошибка
Чтобы вы не повторили наших ошибок, зафиксирую краткие выводы по этому кейсу.
- Разработчики не должны решать маркетинговые задачи в одиночку. Блокировку IP-адресов нужно согласовывать с SEO-специалистами или маркетологами. В нашем случае подрядчик действовал без проверки списка IP-адресов поисковых роботов, хотя эти данные есть в открытом доступе;
- Контроль рисков на этапе постановки задачи. Мы не оценили последствия блокировки для SEO. Теперь перед подобными изменениями проговариваем возможные сценарии и риски. После обсуждения идем по плану, решаем задачу с контролем на каждом этапе;
- Ищем более изящные методы решения задачи. Вместо блокировки IP можно было использовать систему защиты от интернет-ботов reCAPTCHA или Cloudflare для защиты сайта. Перечисленные решения уже широко используются и защищают веб-проекты от вредоносных ботов.
Что делать, если столкнулись с бот-трафиком
Теперь несколько рекомендаций, которые помогут заблокировать вредоносный трафик на сайт и не допустить ошибок.
- Изучите логи сервера и сравните подозрительные IP-адреса с официальными списками поисковых роботов от Google и Яндекса. Эти данные находятся в открытом доступе, и такая проверка помогает избежать случайной блокировки полезных ботов;
- Изменения лучше тестировать на небольшой части страниц, а потом выкатывать для всего сайта. Это поможет выявить возможные ошибки и недопустить серьезных проблем. Главное — согласовывать действия с SEO-специалистами, чтобы случайно не заблокировать чего-нибудь лишнего;
- Анализируйте логи, отчеты веб-аналитики и инструменты вроде Google Search Console и Яндекс.Вебмастера для диагностики и выявления возможных проблем после внедрения на сайте изменений.
Выводы
Ошибка стоила нам времени и трафика, но стала полезным уроком. Теперь мы работаем над процессами, которые помогут исключить подобные сценарии.
В следующей статье расскажу, какие решения мы внедрили для блокировки роботов и поделюсь результатами: как удалось снизить ботные визиты, побороть телефонный спам и почистить заявки от роботов с форм.
Подпишитесь на Телеграм-канал — тут я делюсь важными для маркетологов событиями, исследованиями и кейсами.
Статьи по теме:
- Как отслеживать клики по кнопке с помощью Google Tag Manager
- Как мы организовали самое крупное онлайн-мероприятие на рынке 1С
- Как настроить передачу данных из Яндекс.Метрики в Google Data Studio
- Как создать переменную c идентификатором отслеживания Google Analytics в Google Tag Manager
- Как проверить сайт на вирусы — онлайн-сервисы и плагины для проверки