Быстро определяем причины проседания трафика: пошаговая инструкция

В SEO нужно вовремя реагировать на любые изменения. Особенно важна быстрая и правильная реакция на снижение количества посетителей сайта. Мы расскажем, на что в первую очередь смотреть и как оперативно определить причину проседания трафика, а также каким образом отреагировать на этот спад.

Читать позже

Даже если у вас ресурс с хорошим авторитетом у поисковиков, и он не нарушает регламентируемых правил Google, это не дает гарантии, что в один момент трафик на нем не просядет. Резкое падение посещаемости не порадует, ведь прямо влияет на экономику бизнеса. Вот почему нужно быстро отреагировать на происшествие и понять, что же стало причиной проседания. Начинаем наше руководство.

 

1. Смотрим Google Search Console

Первым делом смотрим, нет ли сообщений или уведомлений в сервисе вебмастеров. Они могут появиться в связи с:

  • спамным контентом;
  • неестественными ссылками;
  • спамной микроразметкой.

 

Могут приходить и некоторые другие уведомления, но описанная тройка - самая популярная (в случае проседания трафика).

Если в Google Search Console есть сообщение, что сайт оказался под санкциями, то дополнительные действия по выявлению причин снижения посещаемости не нужны, лучше сразу начинать реагировать и работать по выведению площадки из-под фильтров.

Последовательность такой работы предполагает следующие действия:

  • ищем некачественные линки и отклоняем их через Google Disawov;
  • составляем запрос о пересмотре в Google (от правильности написания текста во многом зависит результат);
  • ждем ответ;
  • если ответ отрицательный, то выполняем предыдущую работу еще качественнее;
  • одновременно работаем с обратными ссылками.

 

Поскольку фильтр «Пингвин» накладывается как в ручном, так и в автоматическом режиме, в последнем случае никаких уведомлений в консоли вебмастеров Google, как правило, нет, а значит, причины проседания трафика нужно искать дополнительно.

 

2. Robots.txt

Проверяем файл роботс. В нашей практике неоднократно бывало такое, что разработчики случайно закрывали веб-ресурс от индексации через robots.txt. Из-за этого посещаемость падает почти моментально (случается, что из-за этого сайт недополучает около миллиона посетителей в день).

Для системной и автоматизированной проверки robots.txt есть специальные сервисы. К их числу относится, к примеру, SiteTracke, занимающийся мониторингом основных показателей и фиксирующий динамику изменений. При резком проседании посещаемости можно проверить файл в этом и подобном инструменте вручную. Достаточно нескольких секунд для:

  • указания адреса файла: домен/robots.txt;
  • проверки закрытия индексации - disawov;
  • если площадка не закрыта, то продолжаем работу по нашему алгоритму.

 

3. Парсим ресурс на ошибки и редиректы

Нередко для быстрой проверки ресурса и понимания причин снижения посещаемости, стоит выявить имеющиеся внутренние ошибки и перенаправления. Редиректы в таком случае обычно являются важнейшим моментом.

Как сделать проверку? Вот несложный алгоритм:

  • используем сервис Screaming Frog SEO Spider;
  • сканируем в нем сайт;
  • смотрим по результатам сканирования внутренние редиректы и имеющиеся баги.

 

Максимум внимания удаляем:

  • выпадению основных тегов;
  • сетевым протоколам страниц;
  • «левым» перенаправлениям.

 

Три этих момента плюс расклейка веб-страниц, являются причиной ухудшенной индексации Google. Смотрим все ошибки в summary, чтоб понять, имеются ли внутренние баги, способные привести к проседанию трафика.

 

4. Используем Google Analytics

Этот инструмент аналитики поможет оперативно узнать, какие конкретно странички выпали из индекса и в какой именно период. Вот как это делается:

  • задаем необходимые даты;
  • выбираем сравнение с аналогичным временным отрезком;
  • снова задаем даты, когда с трафиком все было в порядке;
  • смотрим, какие конкретно странички потеряли в посещаемости больше всего (по процентному изменению).

 

Проведенный анализ поможет понять, какие же странички стали причиной снижения трафика, а уже на основании этого строить план дальнейших действий.

В нашей практике однажды был такой случай. Из индекса выпала главная страничка. Из-за этого весь сайт Google перестал демонстрировать в выдаче, в том числе по брендированным запросам. Фактически это был глюк поисковика, так как с технической точки зрения все было нормально и никаких изменений не было. Но последующие пункты нашей пошаговой инструкции дадут понять, из-за чего подобное могло произойти.

 

5. Определяем текущие позиции сайта в выдаче

Результаты в поисковой выдаче - это один из первых моментов, который прямо влияет на количество посещений ресурса. По нашим проектам в работе сбор позиций осуществляется ежедневно, что помогает сразу же понимать ситуацию.

Когда ресурс проседает в выдаче по самым популярным запросам, то, конечно же, и трафик быстро упадет. В данном случае нужно найти все ключи, по которым произошла пессимизация проекта и в дальнейшем анализировать случившуюся ситуацию.

 

6. Далем проверку индексации

Чаще всего на посещаемость влияют два момента: доступность сайта и индексация страничек поисковиками. Если ресурс недоступен или выпал из индекса, то это обязательно приводит к проседанию трафика.

Вот поэтому и нужно быстро проверить индексацию. Если страничка выпала, то позиции в выдаче вообще отсутствуют и трафик сильно упадет.

Для проверки индексации подходят такие сервисы:

  • упоминаемый выше Site Tracker;
  • панель вебмастеров Google;
  • многие другие популярные инструменты и сервисы.

 

В Google Search Console нужно перейти в раздел Индекс Google, а там - в Статус индексации. Нередко представленный там график не совсем информативен (если сильных перепадов нет). Для более детального понимания ситуации нужно:

  • используя Aparser или Screaming Frog SEO Spider собрать данные сайта;
  • спарсить данные по индексу;
  • сделать проверку изменений.

 

Часто такая проверка отнимает много времени, поэтому наш совет - применяйте сервисы отслеживания. По нашим проектам мы настроили отправку уведомлений в случае, если в индексе произойдут изменения на 15-25% (как проседание, так и увеличение). Такой подход позволяет слегка снизить количество рутины в работе.

 

7. Проверяем сервер

Если на данном этапе причины проседания трафика не выявлены, то пора переходить к проверке доступности веб-ресурса.

Первым делом стоит проверить сервер и его работу. Нас интересует:

  • были ли факты падения;
  • все ли нормально с uptime.

 

Если во время падения сервера на сайт намеревался зайти бот Google, то высока вероятность того, что из-за этого и произошло общее падение трафика. В своей работе по проектам мы внимательно отслеживаем сайты, проверяя их доступность с периодичностью в 5 минут. Для этих целей можно использовать Site Tracker или другие инструменты (сегодня они представлены в избытке на рынке).

 

8. Делаем проверку DNS

Этому моменту часто не уделяют внимания, хотя DNS зачастую становится причиной проблем с посещаемостью. Как такое происходит?

Сервер может быть рабочим и доступным. Но когда DNS предлагается регистратором (пусть и платным), он и может давать сбой. Из-за этого и ресурс оказывается недоступным. В таком случае проверка сервера не выявляет сбоя, а поисковый бот Google все равно не может зайти на ресурс. Это и приводит к снижению посещаемости из-за выпадения из индекса отдельных страниц (обычно бывает так).

Проверяем DNS, к примеру, в dig.ua и аналогичных сервисах. Наши инструменты контроля оповещают, если имели место проблемы с DNS. Если в прошлом случались падения ресурса из-за нейм-серверов, то простейший способ проверки - изучить историю, при условии, что таковая ведется. Наличие такой истории падений DNS весьма полезна, так как обычно выявлять причины падения посещаемости уже по факту случившегося.

Как и в других случаях, лучше заниматься мониторингом доступности проекта, что позволит работать на опережение.

В ситуации, когда сервер работает исправно, а DNS периодически падает, лучше заменить их на более стабильные, к примеру, обратившись за премиальными нейм-серверами к другому регистратору.

 

9. Проверяем тексты на уникальность

К распространенным причинам падения трафика относится неуникальность контента. Это беда многих не самых авторитетных, достаточно молодых проектов. И дело тут не в использовании копипаста на продвигаемом проекте (подобное в наших проектах не практикуется), а в использовании вашего содержимого другими. Чаще всего его берут:

  • на дорвеи;
  • на площадки-сателлиты;
  • на трастовые проекты, типа google sites и т.д.

 

Определив уникальность контента, можно найти причину просадки или вылета из выдачи по конкретным запросам и отреагировать на произошедшее.

Как проверять? С помощью таких сервисов:

  • Content Watch;
  • Advego Plagiatus;
  • Copyscape;
  • Text RU.

 

Мы используем внутренний сервис. Фактически не столь важно, какие инструменты использовать, главное, чтобы показатель уникальности был приемлемым - в идеале выше 85%.

В действительности трастовые проекты не проседают по трафику из-за неуникальности. У нас в работе есть несколько сайтов, у которых регулярно копируют тексты (связано прежде всего со спецификой нишы), но это не влечет за собой выпадение из ТОПа.

Как можно защититься от возможного копипастинга? Вот несложная инструкция:

  • устанавливаем на площадке DMCA-protect;
  • блокируем содержимое от парсинга;
  • устанавливаем premium copyscape;
  • регулярно отслеживаем копипаст самостоятельно;
  • реагируем на факты кражи контента.

 

10. Анализируем обратные ссылки

Когда причина падения трафика связана с действиями Google, то беклинки - одна из первых причин, которая сказывается на ранжировании. В связи с этим рекомендуем:

  • анализировать ссылочный профиль;
  • проверить новые ссылки;
  • убедиться, что нет спама (простановки низкокачественных ссылок на ваш проект от конкурентов).

 

Последний вариант довольно распространен и его используют, чтобы избавиться от конкурентов в выдаче. Спамные ссылки, конечно же, удаляются с помощью Google Disawov Tool, но для молодых проектов подобный спам обычно негативно отражается на позициях, а, следовательно, и посещаемости.

Выявить спамные линки проще всего по последним изменениям. Плохие рекомендуем сразу отклонять через Disawov Tool. Из опыта знаем, что они часто имеют различные анкоры. Если есть хотя бы подозрение, что линк плох, то стоит отклонить его через панель вебмастеров.

 

11. Смотрим на PBN

Если для формирования ссылочного профиля используются публичные сети сайтов (PBN), то при проседании трафика в приоритете проверка индексации самих PBN. Если они выпали, то обязательно уберите обратную ссылку, ведущую к вам, так как высок риск, что и вас ждет подобная участь.

Выпадение сателлитов из индекса означает либо подозрения от Google, либо иные серьезные проблемы. По опыту нашей работы: если своевременно убрать ссылку, то снижения притока посетителей почти не будет, а если же ее оставить, то вероятность проседания выше.

 

12. Анализируем процент отказов

Поведенческие факторы проверяем в Google Analytics. Смотрим на органику и отказы по главным страничкам. Он прямо влияет на органический трафик проекта.

В отдельных тематиках конкуренты применяют сервис вроде Userator таким образом:

  • берут высокочастотный запрос, где ваш проект в ТОПе выдачи;
  • проставляют задачу - входа на сайт конкурента с быстрым уходом, возвратом в выдачу и переходом на другой проект (как правило, свой);
  • там же надо остаться подольше, а затем уже не возвращаться в выдачу.

 

Подобный алгоритм действий приводит к росту процента отказов, а также может привести к пессимизации в выдаче. Задача для вас - проверить через Google Analytics показатели и понять, имеется ли подобная проблема.

Над поведенческими факторами требуется регулярная работа, так как они прямо влияют на позиции в выдаче. Важно, чтобы процент отказов снижался и стремился к минимуму.

 

Резюме по руководству

Мы рассмотрели 12 способов, которые помогут оперативно установить причины снижения притока посетителей из поиска. В действительности методик больше, но то, что мы не упоминали, как правило, требует намного больше времени. Мы отталкивались от задачи «среагировать быстро» и привели те моменты, которые, прежде всего, анализируем сами, когда наши проекты проседают по трафику.

Если у вас остались вопросы или есть предложения по рассмотренной теме, будем рады обсудить их в комментариях!

Оцените статью: 5.0 (4)
Следующая статья: Как попасть в блок с ответами Google, оптимизируя сниппет?
Предыдущая статья: Правила SEO-оптимизации под голосовой поиск
Написать статью для вас?
Отправьте заявку на статью: если проблема окажется актуальной и массовой – мы опишем ее решение и разместим статью на сайте.
Хочу статью
При заказе
продвижения
Скидка на
разработку
сайта
Заказать
Приведи
друга
получи
скидку
Подробнее
Специальное
предложение
против
вируса
Получить кп
Комментарии
Показать сначала:
Новые Старые
Дмитрий Алексеев
23.11.2020, 22:40
0
–  0
Подробно описали порядок действий конечно. Я в первую очередь проверяю работу сайта, его аптайм. Потом делаю проверку ДНС. Сейчас еще начну пользоваться Google Analytics, благодаря информации из статьи.
Виктор
23.11.2020, 22:40
0
–  0
Грамотный алгоритм действий. Жаль, что я читаю эту статью, когда уже сам на своих ошибках дошел до похожего понимания. Ещё раз убеждаюсь, что учится намного выгоднее, чем немедленно действовать.
Михаил
27.09.2017, 12:46
0
–  0
Спасибо,все по существу. Возьму на заметку.
Написать комментарий
captcha

Новые исследования

2021-03-03 00:00:00

Повышение продаж применяя данные из отчетов Google Search Console

Google Search Console - это бесплатный  SEO-инструмент, обозначенной в самом названии системы. Способы взаимодействия и примеры практического применения рассматриваются далее.
Читать 54

2021-02-28 00:00:00

Гугл Новости и SEO - все, что нужно знать владельцам сайтов, которые хотят больше трафика из Google News

Владельцы новостных сайтов и медиа-холдинги стремятся занимать первые места в поисковой выдаче среди наиболее популярных сайтов, предоставляющих доступ к контенту разного типа. Как опытные SEO-специалисты, работающие в том числе с публикациями, мы хотим поделиться некоторыми идеями и советами по ранжированию в Google. Речь пойдет исключительно о новостных проектах, имеющих шанс попасть в индекс приложения “Новости Google”. Мы определили ряд практик и методов по оптимизации контента, которые применимы к поисковому продвижению новостных сайтов (страниц, приложений и прочих форматов сети).
Читать 51
Больше исследований

Интервью и мнения SEO-гуру

Для глубокого погружения в профессию оптимизатора, мы настоятельно рекомендуем совмещать чтение с просмотром видео.

Евгений Аралов: главные прогнозы на 2020 (сервисы и методы)

Далеко не каждый специалист может быстро и качественно продвинуть сайт в непростой тематике. Например, букмекерская площадка для ставок в спорте, где SEO чуть ли не ед...

Анализ SEO для СМИ: ведущий эксперт отрасли Галина Бакушева

Для одних Галина Бакушева ассоциируется с каналом Телеграм «Сеошница», для других, она создатель собственного ТВ на фейсбук. Однако такая популярность не г...

Ксения Пескова: качественный продукт приятно рассматривать даже краулерам

Всего два года потребовалось, чтобы стажер SiteClinic, Ксения Пескова, стала не просто тимлидом компании, но и трастовым экспертом в области SEO. Все началось почти ср...

Кирилл Рамирас: лучшие рекомендации по ведению блога для ИМ

Кирилл Рамирас интересен владельцам бизнеса в сети своими успешными проектами, опытом работы в SEO с 2007 года. Регулярное обновление публикаций на Altblog.ru &nd...

Алексей Алексеич: рост и боль в продвижении 2020 - какие прогнозы сбылись?

Сам о себе говорит, что он точно не Андрей, любит котов и смотрит «Битву Престолов». Если серьезно, эксперту 25 лет и с 2011 года основательно занимается с...

Андрей Буйлов: проблемы seo клиента не волнуют!

Андрей Буйлов – известный в сети эксперт по SEO продвижению сайтов. Свою карьеру начинал в конце 90-х. Тогда будущий спикер разнообразных конференций, семинаров ...

Все интервью
Нам доверяют крупные международные компании