Про ссылочные атрибуты nofollow, sponsored и ugc

rel=nofollow появился в 2005 году и цель атрибута была борьба со спам-комментариями. Реально, можно было нормально продвигать сайты, просто комментируя авторитетные блоги/сайты. Google закрыл эту лавочку, а атрибут нашел другое полезное применение — скульптурирование PageRank. Оптимизаторы стали его использовать, чтобы сконцентрировать внутренние веса на нужных им страницах. В 2009 году Google поменял алгоритм расчета весов ссылок и использование nofollow для внутренней перелинковки стало бессмысленным.

Позже Google понял, что вообще есть много разных ссылок, которые хотелось бы как-то понимать — ссылки из комментариев, рекламные ссылки, посто ссылки, которые в будущем могут вести не ту да же, куда вели раньше. И управлять этим всем с помощью одного атрибута rel=nofollow стало сложно. Тем более, что Google и до этого понимал, что большинство nofollow-ссылок являются полезными сигналами для алгоритмов ранжирования, и учитывал их.

Смысл nofollow остается прежним - указание ссылок, которым мы не доверяем. Но добавляются еще два атрибута:

rel=sponsored — для рекламных и спонсорских ссылок (пресс-релизы, реклама, баннеры, спонсорский раздел и пр., где за размещение ссылки было заплачено).

rel=ugc — для ссылок, размещаемых на сайте пользователями (комментарии, вопросы-ответы, посты форумов и пр.)

Все эти ссылки будут являться лишь рекомендациями для гугла, а учитывать их или нет в ранжировании или сканировании сайта, будет приниматься на основании разных сигналов.

— Нужно ли что-то менять на сайте?
— Не обязательно. Если не хотите заморачиваться, можно ничего не менять, хуже от этого не станет.

— Как разметить sponsored-ссылки, если другие поисковики еще не поддерживают этот атрибут?
— Можно использовать несколько атрибутов, каждый для своей поисковой системы. Например, rel="nofollow sponsored". Скорей всего, позже и другие поисковики примут новые стандарты. Как когда-то было с rel=nofollow.

— Обязательно ли размечать исходящие ссылки?
— Google использует should, а не must. Размечать ссылки не обязательно.

— Что тогда поменялось?
— Еще одна из причин ввода дополнительных атрибутов — после разметки пользователями ссылок, поисковик сможет обучить свою систему и лучше понимать тот или иной паттерн. Скорей всего, атрибуты вводились при согласовании с авторитетными изданиями, на которых это все будет внедряться в первую очередь.

Стоит заметить, что rel=nofollow никак не связан с мета-тегом robots-nofollow.

Предлагаю эту тему с новыми атрибутами подробней обсудить в комментариях.

46 комментария

Как быстро проиндексировать 250к страниц в Google

Эта статья является переводом заметки Давида Кюннена "How to get 250k+ pages indexed by Google", разработчика из Германии, который нашел способ лучшей индексации сайтов, написанных на JavaScript.

При создании проекта Devsnap, Давид был очень наивным. Он использовал Create React App для фронтенда и язык Go с GraphQL для бэкенда. Классический SPA-сайт с клиентским рендерингом.

Давид знал, что гуглу на job-сайте придется индексировать множество страниц, но не переживал, так как известно, что Google обрабатывает JavaScript и, по идее, должен все нормально проиндексировать.

— О нет, я ошибался

David Künnen

Сначала все казалось идет норм. Шаг за шагом Google индексировал странички и сайт получал первый органический трафик. На графике ниже показано количество обрабатываемых поиском страниц сайта.

Количество просканированных страниц в Google

Почему-то индексация проходила очень медленно, Google сканировал примерно по 2 страницы в минуту. Давид думал, что гугл ускорится в ближайшее время, но этого не случилось. Поэтому, нужно было что-то предпринять.

Узнать, что именно было внедрено для индексации сайта...

36 комментария

10 популярных SEO мифов

Мы сталкиваемся с SEO-мифами каждый день. Некоторые из них раньше, действительно, имели место, но все поменялось с обновлением алгоритмов. В этой статье перечислены 10 наиболее популярных SEO мифов, из опыта агентства Cyrek Digital

1. Реклама Google Ads положительно влияет на позиции

Использование или не использование Google Ads/AdWords не влияет напрямую на SEO. Хотя, реклама влияет на трафик сайта и на имидж компании, поэтому может коррелировать с позициями. 

Также встречается мнение, что размещение блоков AdSense положительно влияет на позиции, так как Google с них зарабатывает. К сожалению, это миф. Реклама никак не влияет на видимость сайта в органическом поиске.

2. Использование sitemap.xml улучшит позиции сайта

Карта сайта это список страниц, из которых состоит сайт. Благодаря этому, поисковик понимает структуру и может эффективно сканировать сайт. Как только на сайт будет добавлена новая страница, она попадает в sitemap.xml, и Google быстро об этом узнает. Однако, сама карта напрямую не влияет на ранжирование, она лишь позволяет быстрей сканировать сайт. 

На нормально спроектированных сайтах вообще sitemap.xml не нужен. И от этого они не чувствуют себя хуже в поиске.

Читать все 10 популярных мифов в SEO...

50 комментария

Фишки из патентов Google, о которых вы могли не знать

Google постоянно совершенствует свои алгоритмы и иногда использует такие подходы, о которых можно было лишь догадываться. Свои разработки Google патентует, поэтому, анализируя опубликованные патенты, можно узнать больше о том, как все устроено на той стороне. Конечно же, не все разработки внедряются полностью или сразу, но оптимизаторам будет полезно с ними ознакомиться. Часть из описанных ниже патентов были рассмотрены на GURUCONF в прошлом году.

Итак, что же интересного можно узнать, изучая патенты гугла?

1. Семантическая близость слов важнее визуальной

Авторы: Harik; Georges R. (Mountain View, CA), Henzinger; Monika H. (Lausanne, CH)
Владелец патента: Google Inc. (Mountain View, CA)
Номер заявки: 10/813,573
Подано: March 31, 2004
Опубликовано: May 11, 2010

Название: Ранжирование документов на основе семантической близости между терминами в документе
(англ: Document ranking based on semantic distance between terms in a document)

Указываются техники, обнаруживающие неявно определенную структуру в документе, например, неявную структуру списков в HTML документе. В расчетах, наряду с расстоянием между терминами может использовать семантическая структура. Значения расстояния может использоваться, например, при рассчете ранжирующих коэффициентов, указывающих уровень релевантности документа поисковому запросу.

Из этого патента мы узнаем, что Google может сам размечать документы. Например, если для списков не указаны HTML-теги <li>, то они могут создаваться на основе других структур.

  • Списки могут создаваться таблицами <table>, <tr>
  • Могут создаваться блоковыми элементами <div>
  • Тегами параграфа <p>
  • Просто с помощью разделителей строк <br>

Заголовки могут идентифицироваться не только из элементов <h1>, <h2> и т.д., но также из отдельных строк, которые выглядят как заголовки (название таблиц, изображений, выделение коротких предложений в <strong> и пр).

Пример неявного списка

В примере выше, Google воспримет этот кусок кода как неявный список с заголовком "Saturn Facts" и элементами, отделенными тегом BR.

Узнать обо всех фишках...

64 комментария

Построение ссылочных профилей многостраничных сайтов. Решение бизнес задач

Выстроить план работы со ссылочным профилем для 10-100 страниц не составит труда. Как быть интернет-магазинам, классифайдам, маркетплейсам и другим проектам с большим количеством посадочных страниц?

Сразу возникает большое количество вопросов:

  1. с чего начать;
  2. как расставить приоритеты;
  3. как составить анкор-лист;
  4. какие методы ссылочного продвижения использовать;
  5. где найти подрядчиков;
  6. как контролировать.

Знакомы эти вопросы?

Лично я ищу на них ответы каждый день. Сегодня хочу поделиться своим опытом и решениями на этот счет. Возможно, кому-то они пригодятся.

Поехали!

30 комментария

Мои курсы по SEO

Как вы знаете, я часто провожу различные образовательные вебинары по SEO и участвую в конференциях. Многие видео с этих мероприятий вы можете найти у меня на ютуб-канале и другие ссылки в телеграме. Но также я провожу ряд курсов. Ниже вы найдете ссылки на все из них, если желаете присоединиться.

1. SEO за 30 дней

"SEO за 30 дней" это бесплатный курс, состоящий из 30 коротких видео-уроков, который даст вам базу и лучшее понимание поисковых алгоритмов и задач оптимизатора. Насколько мне известно, ряд seo-студий поручили своим сотрудникам в обязательном порядке его изучить.

Узнать о других курсах Деваки...

59 комментария

Google mobile-first индекс. Что он значит для вашей seo-стратегии

Год назад Google анонсировал новый подход в индексации и ранжировании сайтов под названием Mobile-First Indexing.

Текущая проблема заключается в том, что поисковик анализирует и хранит десктопную версию сайта и использует все её сигналы для ранжирования и отображения результатов, в том числе, в мобильной выдаче. Это ухудшает пользовательский опыт тех, кто искал информацию с мобильных устройств (а их число постоянно растет), так как мобильные версии большинства сайтов содержат меньше контента.

Как только будет запущен mobile-first индекс, вебмастера увидят в серверных логах специального гуглбота, в кеш будет сохраняться мобильная версия документа, и в сниппетах также отображаться мобильный контент.

По утверждению Google, владельцам адаптивных сайтов и тем, кто настроил корректный динамический показ не стоит ни о чём беспокоиться. А остальным нужно проверить себя на готовность к нововведениям.

Mobile First

Читать дальше про мобайл-фёст индекс...

59 комментария

3 причины, почему анализ топа не работает

В русскоязычной seo-среде распространен подход построения многих стратегий на основе конкурентов в ТОПе. Как давно вы анализировали выдачу, чтобы узнать оптимальное количество вхождений ключевого слова на странице, какого объема текст нужно заказать у копирайтера, или сколько ссылок оптимально приобрести? Или может вы использовали текстовые анализаторы, которые сами генерируют ТЗ копирайтерам и дают "правильные" рекомендации по оптимизации текстовых зон документа?

Конечно же, в эпоху Big Data грех не анализировать статистику, но можно ли на неё полагаться, если мы говорим о ТОП10 или даже ТОП50? Ниже приведены основные причины, почему анализ ТОПа не работает и как данные из выдачи использовать с умом.

Анализ ТОПа

3 причины провала seo-стратегий при построении их на основе анализа ТОПа...

19 комментариев

Телеграм-каналы по SEO. Полный список

Мессенджер Telegram удобен не только для общения, но и для поиска новой информации и контактов, отслеживания трендов и полезных идей по интересующей тематике. Здесь я подготовил для вас подборку телеграм-каналов, посвященных SEO. Их не так много и большинство интересные, обязательно ознакомьтесь.

Небольшое замечание. Каналов по маркетингу очень много в телеграме. В списке представлены именно те каналы, которые в основном посвящены SEO, а не бизнесу, рекламе или другим смежным тематикам. Отсортирован список по количеству подписчиков (на момент публикации).

Телеграм-каналы по SEO

@devakatalk (5606) ⭐ — Мой персональный канал с актуальными материалами по SEO и интернет-маркетингу. Обязательно подписывайтесь! @metod_seo (4314) — Паблик по SEO, где публикуется опыт экспертов. Авторы находят интересные статьи и размещают их под видом интервью или как будто эксперт написал эту заметку специально для канала. В целом, получается хорошо. @seolife (3574) ⭐ — Персональный канал Виктора Каргина, один из первых в Телеграме. Здесь много информации по SEO в Рунете, по обновлениям Яндекса или трансляций с конференций. @ukradeno (3265) ⭐ — Паблик с ссылками на свежие материалы по SEO с небольшим содержанием. @checkroi (2155) — Канал об интернет-маркетинге, где иногда появляются полезные для сеошников посты. @shakinru (1932) ⭐ — Персональный канал Миши Шакина с полезными ссылками. Смотреть полный список каналов в Telegram по SEO...

60 комментария

Решение проблемы UGC-контента с помощью внутреннего показателя качества страницы

Часто при формировании UGC-контента возникает проблема, когда отправлять его на индексацию нет смысла из-за малой информативности образовавшегося документа. Наличие малоинформативных страниц на сайте может снижать скорость индексации, а также влиять на авторитет домена. В связи с этим, необходимо уметь управлять качеством генерированных страниц. В некоторых случаях частичные дубли можно склеивать между собой, в других лучше вовсе не допускать их индексацию.

В данной статье предложено решение проблемы UGC-контента, а именно метод работы с малоинформативными страницами сайта с помощью введения внутреннего показателя качества документа.

Задача 1. У вас есть раздел объявлений, где каждый пользователь может создать страничку с описанием. Некоторые пользователи стараются и описывают свое объявление как можно подробней, особенно, если в подсказках или элементами интерфейса/функционала мы будем просить их об этом. Но, зачастую, люди не любят создавать уникальный контент, особенно если это касается объявлений. Они пишут короткие тексты или копируют свои объявления на множество досок, в том числе и на вашу. Такие малоинформативные документы никогда не будут хорошо ранжироваться и приносить трафик, а при большом количестве могут снижать авторитет раздела. Как поступить?

Решение: Вводим показатель качества (Q), который зависит от необходимых нам параметров, например, от объема контента (volume)Q = F(volume), а также вводим порог (T), при котором мы считаем страницу некачественной. В случае Q < T добавляем документу мета-тег noindex.

<meta name="robots" content="noindex, follow" />

При генерации sitemap.xml также не выводим в него адреса, для которых Q < T.

Читать дальше про метод решения проблемы UGC-контента...

16 комментариев
Сергей Кокшаров, автор seo-блога

Сергей Кокшаров Автор блога, эксперт-аналитик в области SEO

SEO Блог