Апдейт Google в августе 2018 затронул множество сайтов, в том числе и одного из наших клиентов - Stripo.email (SaaS продукт).

Данная статья - реальная история продвижения SaaS из которой вы поймете ход наших мыслей для поиска причин и что было сделано для снятия санкций Google за 2 месяца.

Предыстория

Сервис продвигался более 10 месяцев и демонстрировал уверенный рост на всем периоде.

Продвижение строилось на создании посадочных страниц под необходимые поисковые запросы и контент-маркетинг для привлечения информационного трафика.

Ничего необычного. Не стоит на этом задерживаться. Если интересны детали, то читайте статью о продвижении IT компаний и SEO для старт-апа.

Результат до санкций

Трафик сайта до санкций

Поисковый трафик с мая 2017 по август 2018 вырос 0 до 8000 в неделю.

Апдейт Google 1 августа 2018

Поисковый трафик упал более чем на 35%.

Необходимо было быстро выяснить причину и устранить ошибки для скорейшего восстановления трафика.

Далее алгоритм действий для понимания причин.

Выявление причины

Самое важное - проверить санкции применены на весь сайт или на определенные документы.

С постраничными санкциями бороться на порядок проще, а восстановление трафика наступает сразу же после внесения правок.

Если же санкции накладываются на весь сайт - это алгоритмические санкции. И даже если вы исправите все проблемы, то трафик не вернется до следующего апдейта (корректировки) алгоритма.

При алгоритмических санкциях, время - критический ресурс. Необходимо внести правки быстро чтобы показатели сайта пересчитались и при корректировке или апдейте поискового алгоритма трафик вернулся на досанкционный уровень.

Для проверки гипотез:

  • анализируем изменение поискового трафика по лендингам (обязательно);
  • снимаем позиции по всем типам страниц (опционально).

Просадка трафика на 35%

Трафик упал на 35% неделя к неделе.

Далее проверили по лендингам...

Изменение трафика по посадочным страницам

Трафик упал на всех лендингах.

Далее проверили позиции.

Как просели позиции

Позиции просели по всем целевым страницам на 2-5 пунктов.

Итого:

  • трафик упал по всем целевым страницам;
  • позиции также понизились по всем лендингам.

Таким образом ислючается фактор:

  • сезонности;
  • доступности конкретных лендингов;
  • внесения изменений без согласования.

Все указывает на корректировку алгоритма поисковой системы и нужно получить подтверждение из СМИ.

Читаем новости

Рекомендую доверять только первоисточникам - https://www.seroundtable.com/

Про каждый апдейт сайт публикует развернутый пост с комментариями SEO-специалистов.

Например, вот статья о изменении алгоритма 1 августа, а вот пост с комментариями Google и SEO сообщества.

Прочитав материалы получаем подтверждение о Core Algorithm Update (фундаментальная корректировка алгоритма).

Какие выводы можно сделать с апдейта Google

Гугл пересчитал влияние качества сайта в целом на ранжирование.

Качество сайта состоит из множества параметров, но в нашем случае стоит выделить:

  • доверие к информации;
  • качество всех страниц сайта (техническая оптимизация и полезность).

Именно в этих двух направлениях мы решили искать решение проблемы.

Устранение проблем

Доверие к информации

1 августа пострадало очень много сайтов из-за слабых показателей доверия к контенту.

Важно! Это то что ждет рунет через несколько лет, если у вас есть возможность улучшать контент уже сегодня и доказывать авторитетность авторов - делайте это!

Пример пострадавшего сайта Dr. Axe (контентный проект монстр в штате которого работает 30+ человек не считая копирайтеров с оборотом более 11 млн долларов еще в далеком 2015) с трафиком 20+ млн в месяц.

Пример падения трафика медицинского сайта

Наш анализ YMYL факторов

Эту возможную причину быстро отсекли так как проект не относится к теме YMYL (Your Money Your Life как медицина или финансы). А базовых ssl шифрования, terms of use и privacy policy хватает для удовлетворения требований поисковика о надежности бизнеса.

Дополнительно провели сравнительный анализ конкурентов по топу, которые выросли или упали при апдейте.

У всех показатели, которые можно отнести к YMYL на схожем уровне.

Наш вывод - данные показатели доверия к бизнесу не могли повлиять на ранжирование в конкретном примере.

Рекомендую! Если ваш бизнес в нише YMYL, читайте статьи на английском в Epiphanysearch и SEJ что нужно менять в вашем онлайн-бизнесе уже сегодня.

Качество сайта в целом

Под качеством имеется ввиду что поисковой системе доступны только полезные для посетителя страницы.

Именно на основе совокупности доступных к индексации страниц поисковая система делает вывод об общем качестве сайта.

Другими словами нужно попробовать найти на сайте под санкциями низкокачественные страницы; страницы с дублированием контента; технические страницы, которые не должны попадать в индекс.

Устранить эти ошибки, провести пренудительную переиндексацию и ждать пересчета общего показателя качества сайта.

Наш анализ качества сайта

Первыми ласточками что проблема в этом направлении появилась после сравнительного анализа конкурентов, которые выросли или упали после апдейта.

У Stripo оказалось в 20+ раз больше страниц в индексе по сравнению с конкурентами. Что очень много даже не смотря на наличие мультиязычности.

Проведя базовый технический анализ - проблем не выявили. Дубликатов не было, битых ссылок не было, тайтлы не дублировались.

Не буду останавливаться на базовой технической оптимизации, читайте статью Дмитрия Севальнева.

Необходимо было искать неочевидные вещи. Их логику поиска и расписал далее.

Поиск низкокачественных страниц

Это правильный шаг для любого бизнеса при подозрении на санкции от Google. Его суть в том, чтобы найти страницы с низким количеством контента или страницы с однообразным контентом.

Сделать это можно, например в Screaming Frog

Отсортировав страницы от минимального к максимальному количеству слов.

Сортировка страниц по размеру контента

Таким способом были выявлены страницы шаблоны писем

Малоинформативная шаблонная страница

Примеры страниц:

Мало того что таких шаблонов было более 200 так и еще переведены на 4 языка. То есть более 800 страниц, что составляло более 75% проиндексированных страниц.

Что в них плохого?

  • Мало уникального контента
  • Низкая потребность в попадании в поисковую систему

Решение

Удалить страницы из индекса путем <meta name="robots" content="noindex, follow">. Если данный метод для вас не подходит читайте статью о методах удаления страниц из индекса.

В дальнейшем у компании цель сменить дизайн и избавиться от создания отдельных страниц под каждый из шаблонов.

Внутреннее дублирование контента

Сайты могут генерировать не только очевидные дубликаты по Title, H1, но и неочевидные типа дублирования основного контента при уникальных метатегах.

Как их находить?

Опять же с помощью Screaming Frog.

Ищем страницы с одинаковым количеством слов

Важно! Советую смотреть и неточное соответствие слов, а и в диапазоне +- 2-3 слова.

Примеры найденных некачественных страниц сайта

С помощью данной стратегии были найдены страницы блога (языковые версии), на которых вместо требуемого языка выводился английский контент.

С помощью данного анализа нашли ошибки на более чем 50 страницах языковых версий.

Внедрения

Быстрая реакция на санкции и оперативная работа с внедрениями на стороне клиента позволила очистить индекс от неважных страниц за 25-30 дней. То есть, к началу сентября 2018 в поисковые системы стали индексировать всего 150+ страниц из ранее более 1000.

Как и ожидалось, ни трафик ни позиции в поисковой выдаче не изменились.

Возвращение трафика

Трафик вернулся при следующем апдейте Google в конце сентября.

Если бы не быстрая реакция по определению проблемы и ее устранению, то трафик с большой вероятностью так и не вернулся. Как это случилось, например с Dr Axe (трафик продолжает падать).

Результаты Stripo

Результаты восстановления трафика

Трафик вернулся на прежний уровень за 2 недели.

По состоянию на 28 ноября трафик продолжает активно расти (более 40% по сравнению с началом октября).

Состояние на конец ноября 2018

Чуваки - да вам просто повезло

Возможно. Но вот кейс бывшего клиента Ratatype.com. Особенность сайта в том, что под каждого юзера сервис генерирует 5 индексируемых URL. Пример - https://www.ratatype.com/u26287/

Кейс рататайп

А пользователей таких 100+ тысяч. К тому же, контента на данных страницах очень мало и от пользователя к пользователю почти нет изменений.

То же 1 августа и трафик падает...

Падение трафика на Ratatype

И не возвращается так как никто не закрыл профили пользователей от индексации.

Что полностью подтверждает что Google увеличил негативное влияние на общую видимость сайта от проиндексированности низкокачественных нетрафиковых страниц.

Какие выводы можно сделать из кейса?

Главный вывод - наличие неважных и низкокачественных страниц в индексе Google может негативно влиять на общий показатель качества сайта.

Достижение погранично низкого показателя качества сайта приводит к понижению видимости всех документов сайта.

И тогда какой бы грамотной не была общая стратегия продвижения и на сколько бы хорошо не были оптимизированы страницы (как в примере) это не избавит сайт от наложения автоматических санкций.

Вывод из кейса - посмотрите на все страницы сайта критически. И задайте себе вопрос: “Должны ли эти страницы попадать в индекс? Полезны ли они посетителю?”

Возможно это и есть ответ на просьбы поисковиков улучшать свой бизнес для роста трафика.