icon-close icon-menu icon-search

Devaka

персональный seo блог

SEО-фишки. Как cервис мониторинга Mention за шесть недель увеличил трафик на 373%

Автор: Бен Твитчелл (Ben Twichell), руководитель отдела маркетинга Mention.

Изначально мы ставили перед собой цель увеличить объем поискового трафика на 100% за три месяца. Это была высокая, но достижимая планка.

Однако, через шесть недель трафик вырос на 373%. В два раза он увеличился практически моментально:

Рост трафика Mention на 373% из-за внедрения seo-фишек

С тех пор этот уровень сохраняется. Мы не только удерживаем высокие показатели, но и наращиваем объем с каждым месяцем.

На сегодняшний день мы подписали 126 контрактов с клиентами, которые нашли нас благодаря SEO. И эти клиенты стабильно приносят нам более 50 000 долларов в год. Мы хотим поделиться с вами, как мы этого добились.

В этой статье мы расскажем, какие шаги были предприняты, и как вы можете сделать то же самое. Для этого не понадобятся продвинутые знания в SEO, достаточно базового понимания того, что представляет из себя ваш сайт и кто ваши клиенты.

Но прежде чем мы перейдем к SEO-рекомендациям…

Читать дальше про seo-фишки компании Mention…

  • SEO блог. Новая статья: SEО-фишки. Как cервис мониторинга Mention за шесть недель увеличил трафик на 373%
  • 36 Комментариев

Внутренняя оптимизация сайта. Руководство по созданию идеальной страницы

Что касается внутренней оптимизации, вероятно, вы уже наслышались о мета-тегах и плотности ключевых слов. Но внутреннее seo это немного больше. Брайан Дин (aka Backlinko) опубликовал список рекомендаций, которые послужат вам практической стратегией. Это простой чек-лист, который поможет получить больше поискового трафика с каждого кусочка опубликованного контента.

Итак, фишки по внутренней оптимизации сайта.

Публикуйте объемный контент

Сеошная поговорка «чем длиннее, тем сильнее» была подтверждена исследованием, которое показало, что длинный контент ранжируется значительно лучше на первой странице выдачи Google.

Соотношение кол-ва текста на странице и позиции в ТОПе гугла

Ориентируйтесь как минимум на 1900 слов для каждой публикуемой вами статьи.

«Как правило, я проверяю, чтобы мои статьи были объемом 1000+ слов содержательного, полезного контента.

Длинный текст помогает ранжироваться лучше по ключевым словам и приносит низкочастотный трафик… одни плюсы!».

Брайан Дин

Узнать все фишки внутренней оптимизации сайта…

  • SEO блог. Новая статья: Внутренняя оптимизация сайта. Руководство по созданию идеальной страницы
  • 72 Комментариев

Бюджет на seo-инструменты. Сколько придется тратить

Начиная заниматься продвижением сайта все мы сталкиваемся с необходимостью автоматизировать ряд задач, либо получать какие-то дополнительные данные. Несмотря на наличие множества бесплатных инструментов, основной софт все-таки платный и необходимо выделять ежемесячный бюджет, чтобы оперировать дополнительными данными. Сколько же придется тратить на использование seo-инструментов?

Здесь все зависит от задач, объемов проверок, рынка продвижения. Ниже приведены основные из платных инструментов, которые должны быть у каждого оптимизатора, а также неосновные, чисто для продвинутых сеошников, и необходимые затраты на их приобретение или использование.

Инструменты первой необходимости

Стандартный набор seo-инструментов

Узнать подробности про бюджет оптимизатора на seo-инструменты…

  • SEO блог. Новая статья: Бюджет на seo-инструменты. Сколько придется тратить
  • 46 Комментариев

Заголовки H1 и TITLE. Делать ли их одинаковыми или разными?

Должны ли H1 и TITLE совпадать или нужно их делать разными? Давний вопрос, который обязательно возникает на каждой встрече, где есть сеошники. Откуда он появился сказать сложно. Возможно, из несоответствия рекомендаций поисковых систем и примеров в ТОП10.

Доводы за разные теги тайтла и H1: мол, поисковик “подумает”, что мы хотим усилить двойным употреблением значение ключевого слова, за что обязательно накажет :)
Доводы за одинаковые теги: цитата в помощи Яндекса для вебмастеров.

Чтобы робот, анализирующий ваш сайт, смог правильно выделить наиболее важные разделы и ключевые страницы, нужно чтобы… текст в теге TITLE для ключевых страниц совпадал с ее названием (с заголовком страницы, выделенным, например, тегом H1) и с текстами ссылок, указывающих на эту страницу.

Но тут стоит обратить внимание, что рекомендация дана в контексте корректного выделения поиском быстрых ссылок.

Как же на самом деле, делать их одинаковыми или разными? По большому счету — без разницы. Но стоит учесть несколько моментов.

Пересечение тегов заголовков H1 и TITLE

Читать рекомендации по пересечению H1 и TITLE

  • SEO блог. Новая статья: Заголовки H1 и TITLE. Делать ли их одинаковыми или разными?
  • 78 Комментариев

Быстро не получится

Одна из основных проблем в SEO — долгие результаты. Любые изменения на сайте вступают в силу намного позже после того, как мы этого ожидаем. Иногда это хорошо (например, мы можем снять хорошие ссылки, но они ещё несколько месяцев работают), но чаще всего это плохо, так как нет возможности точно и быстро измерить эффективность проделанной работы или провести нормальный SEO-эксперимент.

Узким местом здесь является скорость получения и обработки данных поисковыми системами. Google в этом плане имеет приоритет, так как сканирует сайты чаще и включает обновления быстрее. Яндекс отстает и эффект от любых изменений нужно ждать минимум месяц. После получения результата сложно достоверно сказать, что именно те правки, о которых вы думаете, к нему привели.

Быстрые результаты в SEO? Даже не надейтесь.

Ниже приведены 10 частых задач, которые просто не получится у вас сделать быстро в Яндексе.

Узнать подробней, о каких задачах идет речь…

Почему HTTPs портит отношения с рекламодателями и как это решить

После перехода на HTTPs я столкнулся с несколькими проблемами, временное снижение трафика из поиска это не основная из них. Контентным проектам помимо трафика важно также привлекать рекламодателей и заботиться о своей репутации. В этой статье я расскажу, как из-за неверных измерений я чуть ли не поссорился с хорошими людьми и какие вещи ударили по репутации блога среди оптимизаторов.

1. Количество лайков и твитов

Пользователи интернета, те кто активно читает тематические статьи и общается на разных контентных площадках, привыкли измерять ценность материала по количеству лайков/твитов/репостов. Особенно если статья уже старая, по ней должна накопиться какая-то информация (обратная связь от пользователей). И если мы видим, что у этой статьи 0 твитов или 0 лайков, а площадка достаточно популярна, то это минимум вызовет смятение и максимум может негативно сказаться на репутации площадки.

Если вам порекомендовал статью или вебинар ваш друг – это одно, и вы можете потратить на нее 10-30 минут своего времени. Но если вы случайно нашли ее в сети или увидели в профиле у незнакомого человека, то вам нужны дополнительные рекомендации – стоит ли тратить свое время на эту статью? Количество лайков это хорошая рекомендация.

Статистика реферального трафика

Узнать о других последствиях перевода сайта на HTTPs…

  • SEO блог. Новая статья: Почему HTTPs портит отношения с рекламодателями и как это решить
  • 36 Комментариев

Время просмотра как фактор ранжирования в Google

На прошлой неделе Google получил патент, описывающий использование времени просмотра видео-контента для ранжирования результатов поиска. Несмотря на то, что патент направлен на видео-контент, технология может использоваться гуглом и для обычных документов с текстом, изображениями или аудио-материалом, где при этом отсутствует видео.

Эту новость с патентом, как обычно, нам поведал Билл Славски. Ниже вы найдете более подробное описание.

Патент Google об использовании времени просмотра видео в сессии пользователя

Читать дальше про влияние времени просмотра видео или документа на его рейтинг…

  • SEO блог. Новая статья: Время просмотра как фактор ранжирования в Google
  • 24 Комментариев

Новый подход к определению качества ссылочного донора

На данный момент на рынке существует ряд подходов к определению качества сайта. На основе различных оценок оптимизаторы делают выводы, стоит ли на этом сайте размещать ссылку или она не даст нужного эффекта. Среди популярных методов: оценка количества входящих и исходящих ссылок, оценка параметров TF/CF от Majestic (реализованный в CheckTrust), оценка трафика сайта и другие. В этой статье предлагается еще один метод определения качества ссылочного донора, основанный на оценке объема ядра ключевых слов, по которым сайт находится в ТОПе.

Оценка трафика сайта для определения его качества — хорошая метрика, но здесь возникает сложность выделить свойства трафика: откуда приходят посетители на сайт, какие он имеет поведенческие характеристики, не используются ли системы накрутки трафика и другое. Также, для ряда сайтов мы не можем достоверно определить объем их суточного или ежемесячного посещения.

В связи с этим предлагается оценивать не сам трафик, а объем ключевых фраз, по которым сайт находится в ТОПе. Эта оценка будет хорошо коррелировать и с поисковым трафиком и с видимостью сайта в поиске. Чем больше поисковик дает трафик сайту, тем с большей вероятностью сайт является качественным в различных планах. Логика простая: плохие доноры не будут хорошо ранжироваться. Можно эту метрику нормировать по количеству страниц в индексе, чтобы получить объективные цифры при сравнении малых и больших сайтов. Что касается свойств ТОПа, то необходимо брать приоритетную поисковую систему и учитывать регион сайта.

Данные об объеме семантики, а также видимость сайта в разных поисковиках можно получить через Продвигатор. Пока что через API, либо вручную, позже разработчики обещали сделать пакетную проверку доменов.

Читать дальше про новый способ фильтрации плохих доноров…

  • SEO блог. Новая статья: Новый подход к определению качества ссылочного донора
  • 35 Комментариев

Перестаньте тратить деньги на сомнительные ссылки

Несмотря на появление Google “Пингвина” в 2012 и “Минусинска” от Яндекса в 2015, оптимизаторы продолжают размещать ссылки на сомнительных площадках, оправдываясь фразами вроде:

— для продвижения в регионе это нормально,
— для продвижения НЧ самое то,
— я все равно не использую коммерческие ключи в анкорах для этих площадок,
— фильтруют не всех.

Что здесь подразумевается под “сомнительными площадками”? Это, прежде всего, сплоги, сети сателлитов и статейные площадки. Почему здесь они поставлены в один ряд? Ведь вроде как статейные ресурсы намного лушче и белее сплогов. Неужели? Давайте посмотрим на их общие признаки. А перед этим еще раз вспомним, как родились эти сущности.

История создания сплогов

Читать дальше про сомнительные ссылки с блогов и статей…

  • SEO блог. Новая статья: Перестаньте тратить деньги на сомнительные ссылки
  • 61 Комментариев

30 белых способов получить обратные ссылки (по мотивам пятничного вебинара)

Ниже приведен список белых способов получения обратных ссылок, основанный на элементах входящего маркетинга. Материал подготовлен на основе проведенного вебинара, который рекомендуется к просмотру как дополнение к списку.

Итак, как же сделать так, чтобы о вас написали?

Читать дальше про белые способы линкбилдинга…

  • SEO блог. Новая статья: 30 белых способов получить обратные ссылки (по мотивам пятничного вебинара)
  • 50 Комментариев

Как перенести сайт на HTTPs. Пошаговая инструкция

Многие серьезные проекты использовали HTTPS ещё в 2000х, часть перешли на защищенный протокол в 2010-2011, когда был большой бум из-за утилит иранского хаккера Марлинспайка Firesheep и SSLStrip, позволяющих воровать персональные данные с незащищенных сайтов. Совсем недавно правительство США поручило всем федеральным сайтам перейти в срочном порядке на HTTPS до конца 2016 года. И уже совсем скоро Mozilla Firefox перестанет поддерживать небезопасные HTTP-соединения в браузере. В связи с этим, предвидится новый бум и массовый переход на HTTPS. Рано или поздно вам тоже придется с этим столкнуться.

Чтобы сильно не рисковать незначительным снижением трафика, как раз летом, в отсутствие сезона, у вас есть время заняться переносом сайта с HTTP на HTTPS. Тем более, что Яндекс прекратил обновлять выдачу, а Google обещает давать приоритеты защищенным сайтам.

Как же перенести свой сайт на HTTPs? Ниже представлена пошаговая инструкция.

Как перенести сайт на HTTPs, подробная инструкция

Читать подробную инструкцию по переносу сайта на HTTPS

  • SEO блог. Новая статья: Как перенести сайт на HTTPs. Пошаговая инструкция
  • 296 Комментариев

Почему плохо ссылаться на страницы, закрытые от индексации

Одна из популярных ошибок вебмастеров — ссылаться на неиндексируемые поисковой системой страницы. Это могут быть страницы, закрытые в robots.txt, имеющие мета-тег robots=noindex или просто несуществующие документы (отдают 404 код статуса). Например, на сайте может находиться система фильтрации или тегов, большинство или все из которых специально закрыты от индексации, чтобы не создавать дублей. В панели для вебмастеров вы заметите множество сообщений об ошибках, но это лишь половина проблемы.

Почему же плохо ссылаться на несуществующие страницы, или закрытые от индексации?

Запрет индексирования в robots.txt - какая же инструкция важнее?

Читать дальше про упущенную выгоду закрытия страниц от индексации…

  • SEO блог. Новая статья: Почему плохо ссылаться на страницы, закрытые от индексации
  • 42 Комментариев

Как оптимизировать сайт на нескольких языках под Google

Специалист по качеству поиска Google, Андрей Липатцев в рамках недавнего вебинара обучающего центра CyberMarketing рассказал о том, как оптимизировать мультиязычные мультирегиональные сайты, как проводить тестирование и измерять эффективность предпринятых действий. Ниже представлена самая полезная информация из данного вебинара.

Также вы можете посмотреть полную версию, где вопрос раскрывается более подробно.

Вебинар про оптимизацию мультиязычных сайтов с Андреем Липатцевым, специалистом по качеству поиска Google

Базовые рекомендации

1. Содержание меню — лучше использовать текст вместо изображений (например, флажков). Флаг не всегда ассоциируется с языком и наоборот.

2. Доступность меню — нужно предоставлять возможность пользователю самому менять язык, так как многие хотят видеть, например, контент на русском, несмотря на то, что находятся в Дублине.

3. Язык меню — используйте название языка на этом же языке, а не на текущем языке сайта. Для англоязычных пользователей надо писать “English”, а не “Английский”.

Читать дальше про оптимизацию сайта под несколько языков и регионов…

  • SEO блог. Новая статья: Как оптимизировать сайт на нескольких языках под Google
  • 21 Комментариев

Принципы формирования ЧПУ для контентного сайта

Про ЧПУ-адреса было опубликовано уже много статей. Здесь я поделюсь своим подходом работы, который использую в том числе для блога devaka.ru. Возможно, эти принципы помогут и вам найти оптимальные решения при проектировании своих сайтов/блогов или их ведении.

5 основных принципов ЧПУ от Devaka

1. Логичная структура адреса

Представим, что документы сайты это объекты, которые можно раскидать по каким-то группам. Если всё это нарисовать в Mind Map, то получим примерно следующее:

Структура сайта в MindMap

Группам я предпочитаю выделять первую секцию чпу, а все что ниже – вторую, но не дальше. Получается следующая иерархическая схема:

Структура ЧПУ для разных объектов сайта

Обратите внимание, что чпу статей не зависит от категорий – мы можем переносить статью из одной категории в другую без какого-либо влияния на seo.

Читать дальше советы по ЧПУ от Деваки с примерами…

  • SEO блог. Новая статья: Принципы формирования ЧПУ для контентного сайта
  • 41 Комментариев

10 способов спалиться, накручивая поведенческие факторы

За последние несколько лет внимание к поведенческим факторам значительно увеличилось. Ссылками продвигаться стало сложнее, за некоторые ссылки теперь можно схлопотать фильтр, плюс выдача стала более конкурентной, поэтому нужно было найти еще незаспамленный фактор ранжирования. Поисковики нашли его намного раньше, чем оптимизаторы, но сейчас проблема заспамленности этого сигнала приближается к ссылочной проблеме, отсюда принятие активных мер со стороны поисковых систем относительно накрутчиков.

Яндекс много раз предупреждал владельцев сайтов не использовать обманные методы, некоторые сайты попадали под горячую руку новых алгоритмов, ну и перед Новым Годом Яндекс подарил вебмастерам резкое снижение позиций именно за накрутку поведенческих факторов. Причем, если даже вебмастера перестают их накручивать и каются в содеянном, то время снятие фильтра неизвестно и по некоторым источникам, может затянутся на год и более, аналогично фильтру “Пингвин” в Google, из-за которого пострадала значительная часть онлайн-бизнеса.

Полезные ссылки:
Давить конкурентов реально.
Опыт накрутки поведенческих.
Как я “крутил” поведенческие факторы.

Улучшать поведенческие факторы важно и нужно. Но здесь есть некая грань, как и в любых seo-техниках, которая может сигнализировать поисковым системам о ваших намерениях, хотите ли вы развивать Интернет и помогать пользователям лучше решать их задачи, либо не привнося ничего полезного в сеть, вы желаете стать выше тех, кто хочет и делает эту пользу? Конечно же, накручивать ПФ можно по-разному, вечная борьба автоматизаторов (не путать с оптимизаторами) с поисковыми системами родила разные технологии, каждая из которых пытается устранить недостатки предыдущей и зваться “белой” техникой.

Градиент поведенческих факторов

Где эта грань, через которую нельзя переступать, чтобы не попасть под фильтр в Яндексе за накрутку поведенческих? Думаю, что она размыта и даже служба поддержки поисковика не ответит вам на этот вопрос. Кроме того, эта грань может постепенно смещаться (чаще в черную сторону). Ниже представлены несколько вариантов, как поисковики могут находить накрутчиков, анализируя разные доступные им сигналы.

Узнать о способах определения накрутчиков поисковыми системами…

  • SEO блог. Новая статья: 10 способов спалиться, накручивая поведенческие факторы
  • 46 Комментариев

Заполняем атрибут ALT или как подписывать изображения на коммерческом сайте

Часто владельцы коммерческих проектов пренебрегают таким источником трафика, как поиск по изображениям. Кто-то случайно закрывает изображения от индексации в robots.txt, другие забывают подписать фотографии товаров, третьи используют малоинформативные подписи типа общих фраз или просто слово “фото”. Предлагаю исправить эту ситуацию и оптимизировать подписи, так как это может дать, пусть и не большой, но дополнительный целевой трафик.

Если мы говорим о коммерческих сайтах, то человек пришедший из поиска по изображениям не обязательно имеет информационный интент. Часто эти люди имеют коммерческий интент, просто не знают, как выглядит тот или иной товар/изделие (например, запросы “нож для резки линолеума” или “samsung 4220 картридж”) или ищут модель по понравившейся фотке (пример запросов из практики: “стульчик для кормления”, “домашний телескоп”).

Чтобы получать весь этот трафик, первое, о чем нужно позаботиться – рассказать поисковым системам, с помощью атрибута ALT, что изображено на картинке, но в тех словах, как это искали бы ваши клиенты.

Например, как можно подписать приведенное ниже фото, если у вас магазин детской одежды?

Пример подписи ALT для оптимизации изображений под Goolge и Яндекс

1. “Фото 1” — Неудачный вариант, так как совсем не описывает изображение, а имеет чисто технический характер. Также отсутствие содержательного текста плохо сказывается на индексации изображений (см. подробнее в хелпе Яндекса).

2. “Улыбающийся мальчик в желтой шапке” — хорошо описывает изображение, но совсем не подходит для коммерческого сайта, так как здесь нужна аудитория, ищущая шапку, а не мальчиков. Мальчик на фото нужен чисто для увеличения конверсии.

3. “Шапка вязаная” — уже лучше, эта надпись сможет привлечь нужных людей. Но у вас на сайте может быть много вязаных шапок, да и лучше описать изображение немножко подробней.

4. “Вязаная шапочка Huppa Bros” — оптимальный вариант, так как имеется название фирмы изделия, а также слово “шапочка” лучше отражает размер. Если на сайте есть подобные шапочки разных цветов, то можно в ALT добавлять в том числе цвет.

5. “Вязаная шапка Huppa Bros, детская шапка, шапочка для ребенка Huppa Bros, желтая вязаная шапочка отзывы” — не занимайтесь ерундой переоптмизацией. В наше время за такие тексты можно получить санкции от поисковых систем, плюс такое описание в ALT не даст больших преимуществ сайту, если у вас большой ассортимент.

Читать полностью рекомендации, как подписывать изображения для seo…

  • SEO блог. Новая статья: Заполняем атрибут ALT или как подписывать изображения на коммерческом сайте
  • 136 Комментариев

Нужен ли sitemap.xml и зачем? Очередной рудимент поисковой оптимизации

При работе с файлом sitemap.xml у вебмастеров часто возникают вопросы, ответов на которые нет даже в официальной справке поисковых систем. К примеру, интересны следующие моменты:

Sitemap.xml - нужен или нет, чем помогает при оптимизации сайта? — Для чего именно нужен sitemap?
— Влияет ли он на индексацию сайта?
— Как часто его нужно обновлять?

Признайтесь честно, можете ли вы на них ответить прямо? :) Мы привыкли использовать sitemap, надеясь, что это как-то улучшит индексацию сайта или повлияет на рейтинг, но дать гарантию этих улучшений никто не может.

Какие же все-таки плюсы и минусы sitemap? Стоит ли на него тратить время? Ниже я делюсь своими мыслями на этот счет.

Читать дальше о необходимости использования сайтмэпа при оптимизации сайта…

  • SEO блог. Новая статья: Нужен ли sitemap.xml и зачем? Очередной рудимент поисковой оптимизации
  • 127 Комментариев

Факторы внутренней оптимизации сайта (полный список)

Список из 50+ факторов внутренней оптимизации, которые так или иначе влияют на индексацию и ранжирование сайта в поисковых системах. Будут полезны вебмастерам при аудите сайта, и дадут идеи, куда стоит обращать внимание в первую очередь при работе над сайтом.

Технические аспекты

— Надежный хостинг
HTTP заголовки и коды статусов (3xx, 4xx and 5xx)
— Корректные 301 редиректы
— Канонические адреса (rel=canonical)
— Структура сайта, иерархия
— Размер документа
— JS и CSS во внешних файлах
— Клоакинг
— Настройка региона

Индексация

— meta-тег robots
— robots.txt
— sitemap.xml
— Корректные ссылки в sitemap
— Текстовая навигация
— Использование iframe, JS, Flash
— Основная версия домена (www или не-www)

Узнать об остальных внутренних факторах оптимизации сайта…

  • SEO блог. Новая статья: Факторы внутренней оптимизации сайта (полный список)
  • 133 Комментариев

Каннибализация ключевых слов - забытая проблема внутренней оптимизации

Сам термин каннибализация пришел из сферы маркетинга, где им называют негативное влияние продаж одного товара в ущерб другому товару того же предприятия в пределах зонтичного бренда. Соответственно, под каннибализацией ключевых слов подразумевают негативное влияние использования одних и тех же ключевых слов на разных документах сайта. Обычно это не приводит к фильтрам, но является плохим приёмом и требует оптимизации.

Возможные проблемы

Почему использование одних и тех же ключевых фраз на разных страницах сайта это плохо? Ведь, казалось бы, если разные документы сайта об одном и том же, то это должно подчеркивать тематику и весь сайт должен быть более релевантен используемым фразам?

Визуализация процесса каннибализации ключевых слов

Читать подробней о вреде каннибализации и методах её устранения…

  • SEO блог. Новая статья: Каннибализация ключевых слов - забытая проблема внутренней оптимизации
  • 52 Комментариев

Оптимизация контента. Несколько полезных советов от западных экспертов

При оптимизации контента необходимо уделить внимание и аудитории, для которой он предназначен, и поисковым системам. Но как соблюсти этот баланс? На что следует больше всего обратить внимание? И какая наиболее грубая ошибка вебмастера при работе с контентом? В данной статье представлен перевод опроса зарубежных экспертов по поводу оптимизации контента. Итак, что же советуют профессионалы?

Алан Блейвейс (Alan Bleiweiss, SEO-консультант) Алан Блейвейс
(Alan Bleiweiss, SEO-консультант)

Всё, что вы делаете для SEO, должно проходить КРАУД-тест: Качество, Релевантность, Авторитет, Уникальность и Траст. Как минимум, каждый сигнал должен усилять качество, уникальность и релевантность. Авторитет и траст – расплывчатые термины, но над ними обязательно нужно работать. Как правило, последние являются побочным продуктом того, что вы делаете.

Грубая ошибка при оптимизации контента, которую я наблюдаю у вебмастеров, это зацикливание на определенных сигналах: входящие ссылки, использование ключевых слов, процент уникальности и так далее… Они ограничиваются на чем-то одном вместо того, чтобы понять необходимость направить свою энергию/усилия/ресурсы в разных направлениях.

Эрик Энж (Eric Enge, управляющий компанией Stone Temple Consulting) Эрик Энж
(Eric Enge, управляющий компанией Stone Temple Consulting)

Проведите какой-нибудь простой семантический анализ, чтобы определить, “на каком языке общаются” люди, обсуждая интересуемую вас тему. Это позволит лучше определить направление контента, а также составить правильный заголовок статьи/документа. А затем, позвольте эксперту по вашей теме написать крутой контент без отвлечения их внимания на использование различных вариантов ключевых слов. Целью номер один должно быть создание такого контента, который удовлетворяет потребностям пользователя.

Многие оптимизаторы стараются в каждый параграф запихнуть разные варианты ключевых фраз, им нужно убедиться, что главный ключ используется в тексте как можно чаще. Но это стопроцентный способ убить контент и сделать его непригодным для пользователя.

Если вы позволите эксперту по вашей теме написать нужный контент, он естественно сделает текст насыщенным различными семантическими конструкциями.

Читать советы других экспертов по оптимизации контента на сайте…

  • SEO блог. Новая статья: Оптимизация контента. Несколько полезных советов от западных экспертов
  • 53 Комментариев

Как найти плохие ссылки, вредные для продвижения

В сети публиковалось уже немало статей на тему аудита ссылочной массы, тем не менее, у вебмастеров и оптимизаторов, которые столкнулись с Google-Пингвином, продолжают возникать вопросы, какие ссылки чистить, какие отклонять, какими инструментами пользоваться и так далее. В этой статье рассматриваются те сигналы, которые явно говорят о бесполезной (или даже вредной) ссылке, избавившись от которой, можно улучшить свою карму :)

Итак, как же найти плохие ссылки? Сейчас мы подразумеваем, что у вас уже имеется список обратных ссылок сайта, полученный через какой-либо инструмент.

Доноры

В первую очередь стоит обратить внимание на сами ссылающиеся домены.

— Отсутствие сетей

Наличие сетей в обратных ссылках можно проверить сервисом Ahrefs, зайдя в меню “Ссылающиеся IP-адреса” при анализе сайта. Сервис группирует сайты по подсетям, поэтому, не составит труда найти ссылающиеся домены на одном IP-адресе или находящиеся в одной подсети.

Например, для сайта Allo.ua мы видим несколько сетей в обратных ссылках.

Пример использования сетей ссылок для сайта Allo.ua

Переходя по сайтам одной из сети, видно, что они явно спамные. Эти ссылки приносят больше вреда, чем пользы.

Читать дальше о признаках плохих ссылок…

  • SEO блог. Новая статья: Как найти плохие ссылки, вредные для продвижения
  • 191 Комментариев

Причины плохой индексации сайта (чеклист для поиска проблем)

Плохая индексация сайта — одна из серьезных проблем вебмастеров. Почему сайт или его отдельные страницы до сих пор не в индексе? Чтобы ответить на этот вопрос, нужно провести небольшой анализ. Ниже приведен список основных причин плохой индексации, который можно использовать как чеклист для решения проблемы.

Основные причины

26 причин, почему робот плохо индексирует ваш сайт Существует 5 основных причин, по которым сайт или его отдельные документы могут не заходить в индекс (или делать это с трудом). Вот они:

— Робот не знает о сайте или документе
— Сайт или его часть недоступна для робота
— Сайт находится в черном списке
— Присутствует техническая ошибка
— Отдельные страницы или разделы показывают плохое качество

Ниже подробно расписан каждый перечисленный выше пункт.

1. Робот не знает о сайте/документе

Робот может не знать о сайте (не включить его в свое расписание) по разным причинам.

— Прошло мало времени

Для того, чтобы робот узнал о сайте или новой странице, необходимо время, когда он найдет ссылку (внутреннюю или внешнюю), либо когда кто-то зайдет на сайт из браузера с установленным тулбаром, либо вы намеренно сообщите роботу о появлении нового документа. Ускорить попадание документа в расписание индексации можно с помощью адурилки.

Также, если вы по логам сервера уже видите, что робот заходил на сайт, а страницы в индексе не появились, нужно подождать апдейта, который в Яндексе происходит не чаще 2 раз в неделю (а по праздникам доходит до 1 раза в 2-4 недели). В основной индекс страницы могут попадать за несколько часов в Google и минимум за 2 недели в Яндекс (если попадают раньше, то по документу скорей всего прошелся быстробот и позже страницы могут на время уйти из индекса до прихода основного робота).

Узнать о других причинах плохой индексации сайта…

  • SEO блог. Новая статья: Причины плохой индексации сайта (чеклист для поиска проблем)
  • 142 Комментариев

Как выглядит естественная ссылка. 10 признаков

Тема ссылочного продвижения до сих пор актуальна в SEO, но оптимизаторы более тщательно стали отбирать площадки, на которых размещают свои ссылки, имитируя их естественность и полезность для пользователя. Но не смотря на все усилия вебмастеров подобрать “правильные ссылочные фильтры” при взаимодействии с биржами, поисковые системы какие-то из ссылок все равно не учитывают, а другие считают вредными и накладывают на сайт санкции. Таким образом, всё популярней становится вопрос естественного ссылочного профиля.

Ниже описаны 10 основных признаков, характеризующих естественную ссылку. Каждый пункт сам по себе может мало о чем свидетельствовать, но в сочетании с другими пунктами вероятность определения ссылки в качестве естественной, а значит и вероятность её работоспособности и качества, будет повышаться. Главное свойство, объединяющее все перечисленные ниже признаки – это ссылка, сделанная человеком для человека.

Цель не в том, чтобы выглядеть естественно, а в том, чтобы быть естественным! Мэтт Каттс.

Узнать 10 основных признаков естественной ссылки…

  • SEO блог. Новая статья: Как выглядит естественная ссылка. 10 признаков
  • 277 Комментариев

11 типов ссылок, которые не любит Google. Официальная информация

Ниже представлен перевод одноименной зарубежной статьи от Джоханса Селбача (Johannes Selbach) с блога SEOProfiler.com. Информация является очень актуальной в связи с последними тенденциями в алгоритмах Google.

Google обновил страницу со схемами обмена ссылками, которая показывает примеры обратных ссылок, считаемых поисковой системой за спам. Новое в списке – это статейный маркетинг или гостевой блоггинг с ссылками, полными ключевых слов, рекламные статьи с платными ссылками и ссылки в пресс-релизах.

В общем, есть много способов создать себе проблему. Вот полный их список:

1. Google не любит платные ссылки

Покупка или продажа ссылок, передающих PageRank, может негативно сказаться на рейтинге вашего сайта в результатах поиска. Сюда относится денежная оплата ссылок или постов, содержащих ссылки; оплата ссылок товарами или услугами; или предложение бесплатного продукта в обмен на обзор этого продукта с ссылкой.

Не покупайте и не продавайте ссылок, если вы не хотите рисковать своим рейтингом.

2. Google не любит активный обмен ссылками

Обмен ссылками с другими сайтами это вполне нормально. Например, сайты об исследовании дельфинов могут ссылаться на другие сайты об исследованиях дельфинов без всяких проблем и рисков.

Но если обмен ссылками выглядит неестественно (сайт об исследовании дельфинов будет ссылаться на магазин обуви, а тот обратно), Google может подумать, что вы занимаетесь получением неестественных ссылок.

Используйте здравый смысл при обмене ссылками с другими сайтами. До тех пор, пока этот обмен имеет смысл для посетителей сайта, все будет хорошо.

3. Google не любит масштабный статейный маркетинг или гостевой блоггинг

Публикация статей, в том числе гостевых, на других сайтах это нормальная ситуация. До тех пор, пока вы это не делаете массово. Если цель вашего гостевого блоггинга лишь в получении разных ссылок, то на сайт могут наложить санкции.

Публикуйте статьи на других сайтах лишь если вы, действительно, хотите предоставить хороший материал.

Google следит за тобой! :)

Читать дальше о ссылках, за которые банит Google…

  • SEO блог. Новая статья: 11 типов ссылок, которые не любит Google. Официальная информация
  • 238 Комментариев

Умрет ли SEO?

Сайт дня: Бэклинк за копейку или ahrefs в розницу. Новый удобный и недорогой сервис для анализа обратных ссылок конкурентов.

Ниже представлен перевод статьи Имеет ли значение SEO западного коллеги Evan Prokop с блога TopRankBlog.

Все мы слышали фразу “SEO уже умерло”. Действительно ли это так? Несмотря на то, что поисковая оптимизация выглядит иначе, чем, допустим, за год до этого, SEO не только живо, но и бурно развивается. И вот почему:

Некоторые аспекты SEO умерли

Многие SEO-тактики можно считать неактуальными, так как они уже не работают, никогда не работали или до сих пор работают, но нарушают требования к качеству Google. Не будем тратить время на обсуждение, почему эти техники уже не работают или являются рискованными, а просто перечислим их. Ниже указаны техники SEO, которые не стоят вашего времени:

  • Переоптимизация ключевыми словами и скрытие ключевых слов от пользователя.
  • Покупка множества ссылок, прогон сайта по каталогам.
  • Дублирование сайтов или категорий на других доменах.
  • Воровство контента или автоматическая его генерация.
  • Оптимизация чисто для получения “позиций”.

Каково SEO сегодня

Значение SEO SEO в своей основе это искусство и наука упрощения задачи поиска высококачественного контента в поисковых системах. Ключевой аспект здесь это “качественный контент”, который помогает клиентам получить ответы, приводящие к покупкам или выполнению некоторых других бизнес-задач.

Большинство алгоритмов Google нацелены на поощрение хорошего контента и наказание спама. Несмотря на то, что не всегда это может казаться именно таким, большинство лучших практик по SEO в Google, действительно, на вашей стороне, вам нужно лишь узнать и овладеть ими.

К примеру, вот несколько SEO-техник, которые живы и хороши для использования:

  • Использование ключевых слов, нацеленных на потребности клиента.
  • SEO-копирайтинг и внутренняя оптимизация сайта.
  • Привлечение ссылок.
  • Оптимизация внутренней перелинковки.
  • Технические аспекты SEO (все, что связано с улучшением взаимодействия с поисковыми системами).
  • Оптимизация для вовлечения и общения посетителей.

Читать дальше о значении SEO в текущих реалиях…

Как юзабилити помогает SEO. 5 простых способов повысить поисковый трафик и продажи

Многие из нас слышали фразу “сайты для людей”. Об этом говорят на форумах и конференциях, даже Платон Щукин со службы поддержки Яндекса многим отвечает на автомате — “продолжайте развивать свой сайт, наполнять его уникальным контентом и делать удобным для пользователей, и со временем его позиции в выдаче могут улучшиться”.

Как ни удивительно, но роботы не любят сайты, сделанные специально для них. Однако, в поисках seo-трафика оптимизаторы продолжают писать seo-тексты, предпринимать другие методы, теряя при этом доверие поисковиков. За несколько лет развития информационного поиска роботы стали умней и поощряют улучшение сайта для пользователей. Как же это использовать в своих целях?

Ниже приведено 5 простых способов, которые способны повысить конверсию, а также поисковый трафик. Используйте их для своего интернет-магазина, чтобы получить двойной выигрыш.

1. Микроразметка

Примеры микроразметки в Google

Поисковые системы позволяют улучшить внешний вид сниппета в поисковой выдаче, что способствует привлечению дополнительного внимания.

Про расширенные описания от Google
https://support.google.com/webmasters/answer/99170?hl=ru

Про семантическую разметку от Яндекса
http://help.yandex.ru/webmaster/?id=1127476

Читать другие советы по использованию юзабилити для SEO

  • SEO блог. Новая статья: Как юзабилити помогает SEO. 5 простых способов повысить поисковый трафик и продажи
  • 57 Комментариев

Забудьте про PageRank в своей SEO-стратегии

Модель PageRank устарела Когда в 1998 году Сергей Брин и Лари Пэйдж открывали Google, главной его особенностью было наличие ссылочного фактора PageRank, который помогал лучше ранжировать документы и отсеивать текстовый спам. Это, действительно, важная модель, которую необходимо знать, чтобы понимать остальные ссылочные алгоритмы поисковых систем. Но сам по себе PageRank утратил свою прежнюю силу и в настоящее время, когда прошло 15 лет с момента появления Google, не имеет ценности для SEO (в том числе в других значимых поисковых системах). И я предлагаю забыть про PageRank в своей SEO-стратегии.

Сюзан Москва (Susan Moskwa), сотрудница Google, в одном из топиков форума для вебмастеров говорит:

Мы множество раз говорили людям, чтобы они не уделяли PageRank так много внимания. Многие владельцы сайтов считают, что это одна из важных метрик, которую стоит мониторить, но это не так. Мы удалили эту метрику из панели для вебмастеров, так как хотим, чтобы люди не думали о ней и показываем лишь те данные, на которые стоит обращать внимание.

Источник, 15.10.2009 г.

Андрей Стыскин, руководитель отдела ранжирования Яндекса, в своем недавнем интервью сообщает:

Вопрос: То есть факторы ранжирования, которые вы находите, имеют весьма ограниченный срок годности?

Ответ: Конечно. Например, существуют поисковые оптимизаторы, люди, которые пытаются обмануть поисковую машину и поднять определенный URL в выдаче. У нас есть целый отдел для борьбы с таким явлением. Возьмите хваленый алгоритм pagerank, анализирующий граф ссылок на страницах. Когда оптимизаторы поняли, как он работает, сеть стала просто забита ссылками, и сейчас pagerank не имеет практически никакого смысла.

Источник, 17.06.2013 г.

Мэтт Каттс (Matt Cutts),

Даже когда я только пришел в компанию в 2000 г., Google делал более сложные расчеты по ссылкам, чем те, которые вы узнали из статьи о классическом PageRank. Если вы думаете, что Google перестал вводить новшества в ссылочный анализ, это неверное предположение. Несмотря на то, что мы ссылаемся на PageRank, способность Google вычислять репутацию, основываясь на ссылках, значительно продвинулась за последние года.

Источник, 15.06.2009 г.

Таким образом, PageRank это не тот показатель, на который стоит обращать внимание. У Google имеется более 200 факторов ранжирования. Но в своих стратегиях мы все же часто ориентируемся на устаревшую модель. Какие это seo-стратегии?

Читать дальше об устаревших seo-стратегиях, основанных на PageRank…

Фильтр Google Пингвин - Итоги года

Годовщина Google Пингвин Ровно год назад, 24 апреля, Google запустил новый алгоритм под названием “Пингвин”. Все вебмастера, кто максимально автоматизировал процесс продвижения сайта, почувствовали действие фильтра в резком падении трафика. Что произошло за этот год и какая текущая ситуация с “Пингвином”?

Краткое предисловие

Буквально через неделю после запуска нового алгоритма на MicrositeMasters появилась аналитика, основная суть которой заключалась в следующем. Пострадали больше всего сайты, имеющие в обратных ссылках:

  • Много прямых вхождений ключевых слов.
  • Мало вхождений в виде адреса сайта (URL).
  • Мало тематических доноров.

Позже было проведено ещё одно исследование для поиска конкретных лимитов и способов выхода из-под фильтра. В результате исследования было найдено, что:

  • Хорошо иметь nofollow-ссылки среди бэклинков (у пострадавших сайтов их было меньше 15%).
  • Хорошо иметь также http и бренд-анкоры в обратных ссылках.
  • Более 50% прямых вхождений ключей в анкор-лист грозит попаданием под фильтр.
  • Для вышедших из-под фильтра сайтов сработал лишь 301 редирект на новый домен.

Стало понятно, что ссылки стали говорить поисковой системе не только о весе и релевантности, но также и о доверии. Так как появились вопросы влияния плохим ссылочным окружением на конкурентов, Google разработал специальный инструмент для отклонения ссылок.

Читать дальше про текущую ситуацию с Google.Пингвином…

Как провести ссылочный аудит

В связи с последними новостями в Google, к ссылкам необходимо относиться более тщательно, чем раньше. Не стоит ждать прихода Пингвина, лучше заранее провести анализ ссылочной массы сайта и избавиться от подозрительных связей. Здесь нельзя полагаться на автоматизированные средства и большинство работы следует выполнить вручную.

Для больших сайтов ссылочный аудит станет весьма кропотливой задачей, но если у вас имеются долгосрочные планы на сайт (онлайн-бизнес), то следует отнестись ответственно к этой работе. Итак, как же провести ссылочный аудит своими руками?

Ссылочный аудит включает в себя три основных пункта.

1. Анализ исходящих ссылок

Больше всего сайт несет ответственность за размещенный на нём контент (куда входят и исходящие ссылки). Поисковики любят хорошо модерируемые ресурсы и плохо относятся к тем, кто ссылается на всех подряд, либо на свои же сайты низкого качества с целью передачи им веса.

Проверьте, на кого ссылается ваш сайт, это можно сделать с помощью бесплатной программы Xenu, либо с помощью оператора linkfromdomain в поисковой системе Bing (пример). После того, как вы получите список исходящих ссылок, убедитесь в том, что:

  • На сайте не присутствует неизвестных вам ссылок.
    Бывают случаи взлома и сам владелец может не знать, что на страницах его сайта присутствуют скрытые ссылки на проституток или сайты казино.
  • Рекламные ссылки закрыты в rel=nofollow.
    Google не против, чтобы вы зарабатывали на рекламе, но при этом требует, чтобы ссылки были помечены соответственно, иначе он примет их как имеющих цель манипулирования поисковыми алгоритмами.
  • Сквозные ссылки на партнеров закрыты через rel=nofollow.
    По той же причине, что и в предыдущем пункте, ссылайтесь на своих партнеров с атрибутом rel=nofollow, особенно если ваши партнеры это сайты с низким авторитетом (например, с почти нулевой посещаемостью).
  • Ссылки на подозрительные сайты закрыты в rel=nofollow.
    Открытые ссылки на подозрительные сайты сделают вам плохое окружение, что повлияет на доверие к ресурсу.

Просмотрите каждый сайт, на который вы ссылаетесь, достоин ли он вашей ссылки? Случается так, что старые ссылки ведут на уже закрывшиеся, взломанные или перекупленные сайты, на которых размещают дорвеи, вирусы, низкокачественный контент для заработка на контексте или другой спам. Не бойтесь закрывать ссылки в rel=nofollow, они по-прежнему будут играть роль в привлечении трафика тем сайтам, на которые вы ссылаетесь.

Читать дальше о проведении аудита ссылок…

Советы по корректному использованию файла robots.txt

В одном из своих твитов я упомянул, что robots.txt это зло и чем он больше, тем больше зла он приносит сайту. Встретив много непонимания, в том числе и на данный момент, когда мнения оптимизаторов четко разделяются по этому вопросу, когда некоторые вебмастера используют старые рекомендации, хочется внести некую ясность в использование этого файла в текущих условиях.

Понятно, что в robots.txt используются разные директивы. Среди них есть много полезных:

  • Host: для указания основного хоста для Яндекса
  • Sitemap: для указания адреса карты сайта
  • Crawl-Delay: для указания минимальной задержки между индексацией страниц (не для всех поисковиков).

Также есть директива DisallowAllow как противоположная). Именно о них и пойдет речь в данной статье.

С какими проблемами сталкиваются вебмастера, используя robots.txt?

Первая и основная проблема, с которой сталкиваются вебмастера, это наличие в индексе Google страниц, закрытых в robots.txt. Считается, что если закрыть страницу или раздел в robots.txt, то она не попадет в индекс или выпадет из него, если там была. Это пока что работает так для Яндекса, Google воспринимает robots.txt по-другому.

Пример индексации закрытых в robots.txt страниц

Читать дальше рекомендации по использованию robots.txt…

  • SEO блог. Новая статья: Советы по корректному использованию файла robots.txt
  • 187 Комментариев

Как завоевать доверие робота

Доверие является ключевым фактором любых взаимоотношений, а так как Интернет и является средой для взаимодействия, главной метрикой успеха любого проекта, в том числе и онлайн-бизнеса, должно быть сформировавшееся у посетителей или клиентов доверие.

Доверие может породить трафик, но трафик не всегда порождает доверие. Доверие может способствовать продажам, но сами по себе продажи не обязательно работают с доверием. Доверие всегда гарантирует долгосрочные отношения. Даже когда речь идёт о роботах, они готовы сотрудничать с нами настолько долго, насколько сильно доверяют. Эта статья посвящена тем владельцам сайтов, которые заинтересованы в долгосрочных перспективах.

Любая дружба основана на доверии

Поисковые роботы, конечно же заинтересованы в том, как вы относитесь к ним в техническом плане (например, заботитесь об эффективной индексации сайта), однако, больше всего им интересно, как вы относитесь к своим посетителям, а также, как посетители относятся или могут относиться к вам. Анализируя ряд сигналов, поисковые системы формируют уровень доверия к сайту, который напрямую влияет на его позицию в поисковой выдаче. О каких именно сигналах идёт речь?

Ещё в 2004 году учеными из стенфордского университета было проведено исследование, в ходе которого были выявлены основные факторы, влияющие на доверие к сайту. Позже, эти факторы легли в основу ряда алгоритмов поисковой системы Yahoo! и на данный момент используются всеми популярными поисковиками. Ниже приведён сгруппированный по категориям список факторов, влияющих на доверие поискового робота к сайту (с учетом текущих реалий).

Узнать подробней о факторах, влияющих на доверие к сайту…

Анализируем вместе. Сколько времени необходимо для продвижения нового сайта в ТОП?

Из всех определений термина SEO мне больше всего нравится:
SEO это непрерывный процесс улучшения сайта”. Здесь как в ремонте, сложно сказать, когда он закончится, можно лишь приостановить…

Но сегодня мы посмотрим на это понятие под другим ракурсом, как его видят большинство — продвижение сайта по определенным запросам. И если это не совершенствование сайта, а определенное шаманство, гарантированно приводящее к цели, то какие сроки? Сколько времени понадобится, для вывода сайта в ТОП, скажем, по определенному запросу?

Давайте попробуем вместе проанализировать данный вопрос. От чего может зависеть время продвижения сайта?

1. Конкуренция

Понятно, что чем конкурентней среда, тем дольше придется в ней прилагать усилий для получения результата. Сама же конкуренция зависит от поисковой системы, региона продвижения, самого запроса.

Поисковый запрос может быть популярным или редким, коммерческим или некоммерческим, информационным или транзакционным, более “сладким” запросам уже давно уделяют время охотники за трафиком. В разных поисковых системах конкуренция может быть разной, так как в ТОПе каждой присутствуют разные игроки. Регион тоже влияет; есть регионы, где конкуренции даже по “сладким” запросам практически нет, хотя может быть на них спрос.

2. Уникальность ресурса

Если в сети появляется ресурс, коих уже имеются сотни, то какой смысл поисковику показывать его в ТОПе? При всех прочих равных, неуникальность — большое препятствие на пути к ТОПу. Если оптимизаторы дали вам надежду, что через 6 месяцев ваш неуникальный сайт выйдет в десятку в конкурентом регионе, тут сложно сказать кто прав, кто виноват :) но будьте готовы к скитанию от одной компании к другой в поисках выполнения невыполнимого.

Читать дальше про оценку сроков продвижения сайта…

  • SEO блог. Новая статья: Анализируем вместе. Сколько времени необходимо для продвижения нового сайта в ТОП?
  • 237 Комментариев

Обзор поисковых алгоритмов, появившихся в 2012

Поисковые технологии не стоят на месте, каждый месяц выходят разные обновления. О некоторых информация не выходит в паблик, на другие мало кто обращает внимание, а какие-то из алгоритмов гробят всю работу оптимизаторов, вызывая массу критики и являя собой главное событие года. Какие же алгоритмы появились в 2012 году?

Google

Google в этом году был особо плодотворным на обновление алгоритмов. Каждый из них заслуживает внимания.

1. Page Layout (январь 2012)

Алгоритм “Page Layout” распознает структуру документа (заголовок, основная часть, боковая панель) и оценивает количество полезного контента на первом экране, доступном без прокрутки. Если первый экран преимущественно занят рекламными блоками, логотипом и другим промо-контентом, то документу будет дано меньше приоритета при ранжировании, чем если на первом экране пользователь сразу увидит ответ на свой вопрос.

Инструмент измерения количества полезного контента на первом экране

Конечно же, экраны у всех разные по размеру. Ориентировочно, можно оценивать качество первого экрана на разрешении 1024х768 и чем дальше расположен полезный и релевантный контент от этого места, тем меньше он имеет весомости для алгоритма “Page Layout”.

Узнать десятку влиятельных поисковых алгоритмов 2012-го года…

  • SEO блог. Новая статья: Обзор поисковых алгоритмов, появившихся в 2012
  • 136 Комментариев

ЧПУ-адреса - описание, рекомендации, примеры

Несмотря на то, что понятие удобных и красивых адресов для страниц сайта введено достаточно давно, пользуются ими ещё не все владельцы сайтов, а рекомендации по использованию ЧПУ часто не являются полными. Данная статья подробно раскрывает вопросы выбора правильной структуры ЧПУ, описывает наиболее распространенные ошибки при использовании этих дружественных адресов, а также отвечает на некоторые другие популярные вопросы.

Что такое ЧПУ

ЧПУ это сокращение фразы “ЧеловекоПонятные УРЛы” (на английском, Search Engine Friendly URLs), что означает красивые и дружественные адреса. Смыслы, вложенные в русский и английский термины, немного разнятся, так как ЧПУ касается больше юзабилити (удобства использования для человека), а SEF больше направлен на SEO (быть дружественным поисковикам). Как бы там ни было, у ЧПУ-адресов есть множество преимуществ над обычными адресами, поэтому, их всегда рекомендуется использовать, но использовать грамотно, как и любой другой инструмент.

Рассмотрим пример ЧПУ

Старые версии адресов (неудобных и недружественных):

www.yoursite.ru/database.php?id=23
www.yoursite.net/viewpage.php?page_id=23
yoursite.com.ua/index.php?id_catalog=48&page_id=23
www.yousite.kz/page.php?page_id=23&lang=1&news_id=154589

Новые версии адресов страниц в формате ЧПУ могут иметь следующий вид:

www.yoursite.ru/biology/
www.yoursite.net/contact/
yoursite.com.ua/conditioners/23/
www.yousite.kz/ru/news/putin-krab.html

Как вы видите, вторые варианты намного удобнее.

Читать рекомендации по использованию человекопонятных адресов…

  • SEO блог. Новая статья: ЧПУ-адреса - описание, рекомендации, примеры
  • 148 Комментариев

SEO - это не ссылки! Или из чего состоит работа специалиста по продвижению сайтов

При общении с вебмастерами, а также менеджерами онлайн-проектов, я часто сталкиваюсь с мнением, что ссылки играют большую роль в SEO. Им придают настолько большое значение, что работа seo-специалиста представляется людям как выискивание методов расстановки ссылок на сайт, умению написать анкоры и подобрать доноры, или что хуже, интересует правильный выбор автоматизированной биржи покупки ссылок или ссылочного агрегатора. Соответственно, сеошников при встрече друг с другом, чаще всего интересуют вопросы, кто как разбавляет анкоры, где покупают качественные ссылки и какой придерживаются стратегии закупки…

Многие клиенты seo-услуг представляют распределение времени работы специалиста по продвижению проекта примерно в следующем соотношении:

Мнение клиента о работе seo-специалиста

В аналогичных пропорциях они представляют и распределение своего бюджета (потраченного на оплату работы специалиста и покупку ссылок). Идеальная почва для роста и развития автоматизированных систем, не правда ли?

На самом же деле, хороший seo-специалист (с опытом работы) выполняет разнообразные задачи, большинство из которых связано с аналитикой. Давайте рассмотрим, что входит в работу сеошника?

Виды работ seo-специалиста

На числовой оси отображено примерное количество затрачиваемого времени в часах на тот или иной вид работы. В зависимости от масштабности проекта, эти цифры могут варьироваться (также, некоторые виды работ являются периодическими), здесь отображены средние значения за весь цикл работы с проектом.

Давайте остановимся на каждом пункте отдельно.

Читать дальше про виды занятости seo-специалиста…

  • SEO блог. Новая статья: SEO - это не ссылки! Или из чего состоит работа специалиста по продвижению сайтов
  • 181 Комментариев

Переоптимизированность сайтов (видео с Optimization.by)

В конце прошлого года в Минске прошла конференция Optimization.by, на которой многие докладчики рассказывали о качестве, конверсии, лояльности, доверии и других возвышенных понятиях (надо сказать, что последний год эти темы поднимают всё чаще в разных городах). Не обошла стороной и меня эта тема (выступил с докладом про переоптимизированность сайтов) :) А в связи с последними событиями в Google о качестве сайтов серьезно задумались многие вебмастера.

Чтобы выделить в топе качественные ресурсы, поисковики используют антиспам-фильтры для отсеивания явного мусора и дальше ранжирующие алгоритмы для сортировки сайтов по мере убывания их истинной ценности для пользователя (надо понимать, что делают они это как могут, но постоянно развиваются).

Если в вашей теме нет качественных сайтов, то занять топ будет несложно, немного поработав над сайтом и предоставив что-то уникальное посетителям. Однако, многие владельцы сайтов не имеют времени работать над ним и поручают продвижение сеошникам, которые зачастую жертвуют конверсией ради получения дополнительных seo-сигналов.

Именно превышение меры в оптимизации приводит ко многим проблемам. Что такое переоптимизация и как её избежать, можно узнать из представленного ниже видео.

Кстати, доступны и другие видео с конференции, которые можно найти здесь. А сам отчет о мероприятии, как обычно, на украинском Optimization.

  • SEO блог. Новая статья: Переоптимизированность сайтов (видео с Optimization.by)
  • 53 Комментариев

Эволюция факторов ранжирования сайтов

Две недели назад (22 марта) в Киеве прошла встреча Клуба Интернет-Маркетологов, на которой один из обсуждаемых вопросов был посвящён актуальным факторам ранжирования сайтов в Google. Хотелось бы раскрыть подробней эту тему в данной статье.

Эволюция факторов ранжирования

Первая поисковая система Wandex была разработана в 1993 году. На то время в сети было немного сайтов, поэтому алгоритм поиска был весьма прост, в результате выдавались все документы, содержащие искомую фразу. После были разработаны ещё несколько поисковых систем, WebCrawler и Lycos, алгоритмы которых были немного совершенней и учитывали, в основном, текстовые факторы документов. В конце 90-ых было достаточно, чтобы текст страницы содержал ключевые слова.

После появления Google в 98-ом в алгоритмах появился ссылочный фактор, используемый в различных моделях информационного поиска. Теперь текстовой релевантности стало недостаточно, необходимо было получить также ссылочную релевантность и PageRank, что повлекло за собой, впоследствии, волну ссылочного спама в разных его проявлениях, который мы можем наблюдать и по сей день.

Схематично, эволюцию поисковых факторов ранжирования можно отобразить следующим образом:

Эволюция факторов ранжирования сайтов в поисковиках

Читать дальше про эволюцию факторов ранжирования…

  • SEO блог. Новая статья: Эволюция факторов ранжирования сайтов
  • 79 Комментариев

5 распространенных ошибок оптимизаторов и немного свежих идей

На официальном блоге Google появилась запись, освещающая распространенные ошибки оптимизаторов. Майли Оуей (Maile Ohye), технический руководитель отдела по разработке программ Google, даёт несколько рекомендаций, как на самом деле стоит проводить SEO-работы над сайтом. Я полностью с ней солидарен, поэтому, делюсь русскоязычным переводом ниже.

Итак, 5 распространенных ошибок в SEO и 6 хороших идей от Майли Оуей!

Ошибка №1: Отсутствие ценности для пользователя

Не стоит работать над SEO пока сайт не несет никакой ценности.

Задайте себе вопрос, почему пользователь должен выбрать мой сайт в результатах поиска? Ваш товар или услуга должна быть особенной и привлекать внимание, можно применить креативный подход.

Например, ваш сайт представляет локальный бизнес, допустим, ремонт мотоциклов.
Что отличает ваш бизнес от бизнеса конкурентов? Являетесь ли вы некоммерческой организацией, возможно, вы предлагаете бесплатную оценку, продаете б/у запчасти, обслуживаете также снегоходы, или вы старый независимый диллер в своем городе?

Скриншот результатов Google по запросу ремонт мотоциклов

Читать остальные ошибки оптимизаторов…

  • SEO блог. Новая статья: 5 распространенных ошибок оптимизаторов и немного свежих идей
  • 151 Комментариев

Юзабилити - забытый элемент перелинковки

В поисках оптимальной структуры перелинковки страниц сайта вебмастера забывают один из важных элементов этого процесса – юзабилити. При этом, SEO не должно идти в разрез с юзабилити, а наоборот, удобные в использовании сайты более ценны и для поисковых систем.

В одной из предыдущих статей про грамотную перелинковку были перечислены три основных пункта: распределение статического и ссылочного весов по страницам, а также навигация, выполняющая функцию быстрого поиска необходимых разделов и страниц. Первые два пункта больше направлены на SEO, и лишь последний на решение задач юзабилити. В этой статье рассмотрен вопрос оптимизации внутренней контентной навигации сайта.

Оптимальная контентная навигация - ключ к улучшению конверсии Само понятие навигации слишком широко, как и понятие поиска. Основные элементы навигации на сайте всем известны и часто применяются: главное и вспомогательное меню, хлебные крошки, связанные статьи (товары) и некоторые другие. Реже в сети употребляется контентная перелинковка, когда в текстовом контенте присутствуют ссылки на другие страницы этого же сайта (в качестве положительного примера можно привести Википедию).

Остановимся на контентной навигации подробней.

Читать дальше о важном элементе перелинковки – контентной навигации…

  • SEO блог. Новая статья: Юзабилити - забытый элемент перелинковки
  • 93 Комментариев

Советы по оптимизации HTML-кода сайта

Несмотря на то, что сайты воспринимаются нами внешне, их внешняя составляющая строится, как и в Человеке, исходя из внутреннего мира под действием специальных законов и правил. Эти законы и правила для сайтов определяются стандартами W3C. Внешней составляющей сайта являются его дизайн и структура, внутренней составляющей – HTML-код и CSS-стили (не учитывая отдельный функционал).

Разрабатывая сайт или добавляя на него контент, мы часто заботимся лишь о внешнем его представлении. Это здорово! Однако, следует уделять внимание и внутреннему представлению страниц в виде HTML кода, особенно если речь идёт о будущем привлечении поискового трафика. Эта статья посвящена вопросам оптимизации кода сайта для улучшения его видимости в поисковых системах и построена на основе доклада автора с конференции All in Top Conf 2012 “Понятие SEO оптимизированной вёрстки”.

Каким сайтам нужна оптимизация кода

Советы по оптимизации вёрстки для SEO При обсуждении вопросов о влиянии валидности HTML страниц на их ранжирование ряд оптимизаторов приводит в пример страницы популярных брендов, например, самих поисковых систем. И, действительно, главная страница Яндекса имеет порядка 30 ошибок и немного больше главная страница Google. Казалось бы, сами поисковые системы не заботятся о качестве HTML кода, подавая пример другим вебмастерам, и в нём можно найти много стилей и скриптов, не вынесенных во внешний файл, а также местами мусорный код.

Здесь следует понимать, что у подобных сервисов другие задачи, источники их входящего трафика это далеко не поисковые системы, а чаще постоянная аудитория. На них не следует равняться. Такие сервисы, как поисковики, социальные сети и ряд крупных порталов не нуждаются в SEO оптимизированной вёрстке, они оптимизируют код для других целей.

SEO оптимизированная вёрстка требуется, прежде всего, сайтам, основной источник трафика которых — поисковые системы.

Читать советы по оптимизации вёрстки html-кода для seo…

  • SEO блог. Новая статья: Советы по оптимизации HTML-кода сайта
  • 97 Комментариев

Мэтт Каттс про оптимальную плотность ключевых слов

Мэтт Каттс (Matt Cutts), руководитель одного из отделов Google, занимающийся проблемами веб-спама, в недавнем своём видео-обращении дал точное определение такому термину, как плотность ключевых слов. Ниже представлен перевод его ответа, специально для российских seo-оптимизаторов и вебмастеров.

Вопрос человека из Калифорнии:
Какова оптимальная плотность ключевого слова: 0.7%, 7% или 77%?
Или она составляет другой процент?

Хорошо, ребята, (со вздохом говорит Мэтт), давайте поговорим о плотности ключевых слов.

Многие люди считают, что есть определенный рецепт, следуя которому можно, например, испечь пирог, и если ты ему будешь четко следовать, то будешь самым первым. Но здесь такой способ не будет работать. Если вы думаете, что 50-55% или 7% или 77% (вовремя опомнился Мэтт, чтобы у зрителей не возникало вопросов, почему он назвал именно 55%) будет значить, что вы окажетесь первым в топе, то это не тот случай. Поисковые машины работают по-другому.

Читать дальше про плотность ключевых слов на странице…

  • SEO блог. Новая статья: Мэтт Каттс про оптимальную плотность ключевых слов
  • 111 Комментариев

Переоптимизация сайта

Данная статья написана по мотивам доклада «Переоптимизированность сайтов», озвученного автором на конференции Optimization.by в Минске. С её помощью хотелось бы побудить вебмастеров к созданию качественных сайтов, оптимизаторов к здравому смыслу и всех остальных к внимательному отношению к своему контенту.

Что такое оптимизация?

Если рассмотреть значение оптимизации в информатике, то под этим термином понимают модификацию системы с целью повышения её эффективности. Другими словами, оптимизируя сайт, мы стремимся увеличить его эффективность. При этом, метриками эффективности могут выступать совершенно различные показатели, в зависимости от типа сайта и его целей.

Если определенная модификация системы (в данном случае сайта) приближает к цели, то это можно назвать оптимизацией.

Проводя аналогию с украшениями на лице в качестве своеобразных его модификаций с целью получения успеха у противоположного пола или при вступлении в престижный ВУЗ, оптимизация будет выглядеть следующим образом:

Аналогия с оптимизацией

Определенная красота в различных частях сайта (заголовке, контенте, коде) также способна приблизить нас к цели (от улучшения позиций в поиске до повышения конверсии посетителей).

Что такое переоптимизация?

Переоптимизация есть превышение меры. В контексте сайта это будет информационная перенасыщенность (например, в имени домена, адресе страницы, в контенте, ссылках или html-коде). Если продолжить аналогию с украшениями, то переоптимизацию можно отобразить примерно так:

Аналогия с переоптимизированностью

Причина переоптимизированности часто заложена в неверном определении метрик эффективности сайта. Но что плохого в превышении меры?

Далее о переоптимизации сайта с примерами…

Нужно ли использовать тег NOINDEX и зачем?

В последнее время, анализируя проблемные сайты клиентов, часто сталкиваюсь с тем фактом, что многие из них активно используют тег <noindex> для скрытия части контента от Яндекса. Для тех, кто не знаком с этим тегом, привожу ссылку на документацию. Как там указано, он предназначен для запрета индексирования служебных участков текста.

Стоит заметить, что в документации указан ответ на вопрос “как использовать этот тег”, но совсем не сказано “зачем он введён”. Отчасти, это и является причиной возникновения многих вопросов от вебмастеров.

Если мы поищем в Google ответ на вопрос “какая польза от тега noindex” или любые рекомендации от сотрудников Яндекса по этому поводу, то ожидаемого ответа на вопросы, зачем он всё-таки был введён и в каких случаях его рекомендуется использовать, мы не получим. Сотрудники Яндекса не берут на себя ответственность в подобных рекомендациях, но при этом и не запрещают использовать noindex в своих целях.

Какие были преимущества у этого тега?

1. Можно было закрыть блок внешних ссылок от индексации (как это делает, например, студия Артемия Лебедева в легендарном смайлике).

Пример использования noindex у Артемия Лебедева на сайте

Действительно, удобно было закрывать таким способом немодерируемые ссылки, в том числе и в комментариях. Но после введения Яндексом возможности использовать rel=nofollow, как это делают другие крупные поисковые системы, можно смело отказаться от тега noindex, если он использовался только для закрытия внешних ссылок.

Читать дальше рекомендации по использованию noindex…

  • SEO блог. Новая статья: Нужно ли использовать тег NOINDEX и зачем?
  • 124 Комментариев

Недостатки одномерной ссылочной стратегии

Данная статья является переводом одноименного поста на SearchEngineWatch Эрика Энджи (The Dangers of a One-Dimensional Link Building Plan).

Поисковые системы постоянно эволюционируют. Одним из существенных изменений в алгоритмах можно выделить лучшее понимание поисковиками естественности ссылочных профилей сайтов.

Немного истории

Как только Google стал лидером в поиске информации, ранжирование в сети было основано на ссылках. К сегодняшнему дню алгоритм, основанный на ссылочных факторах, сильно усложнился и внёс множество улучшений в качество поиска. На этой почве были созданы различные биржи по покупке и продаже ссылок.

Ссылки поисковыми системами учитываются как голоса и поисковики не любят, когда люди покупают и продают их. Точно также, как мы не хотим продажных голосов в политических выборах, так как это исказит результаты. Купленные ссылки влияют на поисковые алгоритмы.

В итоге, поисковики вынуждены совершенствоваться, они начинают отслеживать другие сигналы с разных источников. Мы не знаем этих сигналов, но можем предположить и, таким образом, принять правильные меры к продвижению своего сайта.

Определение баланса

В применении ссылочной стратегии важно использовать баланс разных источников. Его достаточно сложно придерживаться, если ресурсы ограничены, однако, необходимо расширять спектр возможностей.

Ниже приведены несколько, первых пришедших в голову, идей, с помощью чего можно получать ссылки:

Читать дальше про недостатки вертикальной ссылочной стратегии…

  • SEO блог. Новая статья: Недостатки одномерной ссылочной стратегии
  • 29 Комментариев

12 причин перехода на продвижение сайта по низкочастотным запросам

Представьте, что у вас есть коммерческий сайт (старый или новый – не важно) и решено продвинуть его в поисковых системах. Какую концепцию продвижения вы выберете? Вариантов не так много. Если понаблюдать за проектами на фрилансе или вакансиями на форумах, то картина такова, что владельцы сайта уже подобрали запросы для продвижения и хотят лишь найти исполнителя, который сможет реализовать их мечты. Чаще всего это высокочастотные слова и словосочетания.

Пришло время перемен, конкуренция на высокочастотные слова постоянно растет, поисковые алгоритмы эволюционируют, преимущество отдается живым, активным и авторитетным сайтам. Всё больше оптимизаторов переходят на продвижение сайта по низкочастотным (НЧ) запросам, находя в этой концепции новые преимущества, особенно это касается контентных проектов и интернет-магазинов.

В данной статье расмотрены преимущества раскрутки сайта по низкочастотным фразам по сравнению с традиционным подходом.

Следует отметить, что продвижение по низкочастотникам подходит не каждому. Некоторые создают сайт не для развития онлайн-бизнеса и формирования доверия, а больше как визитку своей оффлайн-компании. Однако, данный подход, при готовности руководства направлять потенциал на развитие проекта, может существенно помочь в достижении поставленных целей.

У низкочастотных запросов длинный хвост

Дальше о преимуществах низкочастотного продвижения сайта…

  • SEO блог. Новая статья: 12 причин перехода на продвижение сайта по низкочастотным запросам
  • 63 Комментариев

Как Google определяет качество контента и сайта

После введения нового алгоритма “Панда” в этом году, Google больше внимания уделяет качеству сайтов. Качественный сайт, по его мнению, имеет авторитетные и полезные статьи, пользующиеся популярностью в социальной среде, а также на сайте отсутствует копипаст с других источников или малоинформативный контент.

Свои рекомендации по улучшению качества сайта сотрудники Google опубликовали в виде вопросов, которые можно задать себе перед размещением нового контента. Поисковик сам пытается ответить на эти вопросы, где-то в автоматическом режиме, где-то с помощью асессоров. И, в итоге, у него складывается мнение о качестве опубликованного на сайте контента и, в совокупности с другими факторами, это влияет на позиции сайта в поиске.

По каким же критериям Google определяет качество контента? Вот некоторые из них:

• Доверяете ли вы информации, размещенной в этой статье?

• Написана ли статья экспертом, человеком, разбирающимся в вопросе или же это поверхностный материал?

• Имеется ли на сайте дублированный или пересекающийся контент, многословные статьи на одну и ту же тему с небольшой вариацией ключевых слов?

• Сможете ли вы без лишних напряжений дать на сайте информацию о своей кредитной карте?

• Имеются ли в статье синтаксические, стилистические или фактологические ошибки?

• Отвечает ли тема реальным интересам читателей сайта, или же он генерирует контент с попыткой повлиять на ранг в посковой системе?

Читать дальше про факторы качества контента и сайта в целом…

  • SEO блог. Новая статья: Как Google определяет качество контента и сайта
  • 34 Комментариев

Релевантность страниц сайта

В данной статье раскрыт вопрос релевантности, какая она бывает и относительно чего считается, а также, что такое релевантная поисковая выдача. На основе изложенной теории даны рекомендации по созданию релевантных страниц сайта.

Для начала вспомним принцип работы поисковой системы. Процесс поиска информации пользователем можно отобразить следующим рисунком.

Принцип работы поиска в Яндексе или Google

Рассмотрим процесс поиска поэтапно, так как это очень важно для правильного понимания термина “релевантность”.

1. Желание пользователя
Человек решил воспользоваться поисковой системой для поиска ответа на свой вопрос. При этом, у него уже имеются по поводу результата какие-то представляемые предпочтения, желания или ожидания. Если пользователь получает не то, что искал, то он продолжает искать дальше.

2. Поисковый запрос
При общении с поисковой системой, пользователь использует «язык запросов», только так поисковик может понять желание пользователя. Из-за невозможности полноценно выразить свое предпочтение (мысли) с помощью языка (запросов), пользователь получает, на его взгляд, нерелевантную выдачу (или релевантную, в зависимости от наработанного опыта общения с поисковиком), хотя на взгляд поисковой системы выдача отвечает запросу пользователя.

3. Поиск
Поисковик не знает желание или ожидание пользователя, но знает его текстовый запрос и производит поиск в соответствии с заданной фразой.

Дальше о релевантности и пертинентности страницы…

Использование nofollow и noindex для внутренней перелинковки страниц

Из-за возникновения в последнее время у владельцев сайтов вопросов, связанных с использованием тега noindex и атрибута ссылки nofollow при перелинковке страниц, следует разобраться в этих вещах немного подробнее.

Внутренней перелинковкой сайта можно назвать манипуляцию ссылками на его страницах, которыми, в плане веса, мы можем “сделать акцент” на определенные разделы своего ресурса. При перелинковке часто возникают такие случаи, когда ссылку необходимо показать пользователю, но от робота скрыть, либо указать ему как-то, чтобы он её не учитывал. Таким образом, мы смогли бы сделать акцент на наиболее важных ссылках.

Ранее, для решения этой задачи, при продвижении в Google использовали атрибут ссылки rel=nofollow, а для Яндекса тег <noindex>. Но со временем мир меняется и Google поменял алгоритм при пересчете весов страниц, а Яндекс стал учитывать атрибут nofollow (по аналогии с Google). Помимо этого, ссылки в noindex все же учитываются и могут появляться в панели для вебмастеров, не учитывается лишь их текст.

Если схематически представить работу noindex и nofollow, то это будет выглядеть примерно так:

Как работает noindex и nofollow - прошлое и настоящее

Читать дальше про современные noindex и nofollow…

  • SEO блог. Новая статья: Использование nofollow и noindex для внутренней перелинковки страниц
  • 152 Комментариев

Поведенческие факторы в Яндексе — поведение пользователя влияет на ранжирование

В последнее время интерес к поведенческим (или так называемым пользовательским) факторам в Яндексе сильно обострился. Особенно это произошло после докладов Сергея Людкевича на последних seo-конференциях. Комментарии самого Сергея можно почитать и посмотреть на блоге вебэффектора.

Почему вопрос о поведенческих факторах оптимизаторы подняли только сейчас, если поисковые машины постоянно анализируют поведение посетителей? Скорей всего потому, что пришло время. После ввода Яндексом алгоритма MatrixNet сайты стало сложно выводить в топ, особенно относительно молодые, качество выдачи повысилось; оптимизаторы начали искать новые факторы, которые могут повлиять на ранжирование. В этой статье описана группа поведенческих факторов, которые так или иначе могут вносить свой вклад в ранжирование сайтов по разным видам запросов.

Прежде чем классифицировать факторы, зависящие от поведения посетителей на сайте, вспомним основную цель Яндекса — предоставить пользователям максимально качественную выдачу. Для того, чтобы дать пользователю поисковой системы качественную выборку, поисковик должен проанализировать, прежде всего, запрос пользователя, то есть понять, что он ищет и что хочет получить в ответ на свой вопрос.

Читать дальше о пользовательских факторах ранжирования…

  • SEO блог. Новая статья: Поведенческие факторы в Яндексе — поведение пользователя влияет на ранжирование
  • 64 Комментариев

Типы поисковых запросов. Изучаем цели аудитории

Информационный мотив пользователя — это основной принцип, заложенный в классическом алгоритме информационного поиска. Однако, мотивы пользователей часто могут быть не информационными, а, скажем, транзакционными или навигационными или другими.

В 2002-ом году Андрей Бродер в своей работе “A taxonomy of web search” классифицировал поисковые запросы на три основных типа:

1. Навигационные
Целью пользователя является найти определенный сайт.

2. Информационные
Цель в данном случае – найти требуемую информацию на одном или нескольких сайтах.

3. Транзакционные
Целью является немедленное выполнение какого-нибудь действия: купить или заказать продукт, скачать документ, загрузить файл и т.д.

К настоящему времени выделяют еще несколько типов запросов: общие запросы, которые сложно отнести к какому-либо из вышеперечисленных типов и мультимедиа, появившиеся из-за большого роста интереса пользователей к различным видам медиа.

Далее рассмотрим каждый из этих видов отдельно, а также определим, какую роль они играют в продвижении сайта.

Навигационные запросы

Когда пользователи поисковых систем используют их для навигации к интересуемым страницам, ищут определенный сайт, то вводимые ими запросы можно назвать навигационными. Например,

однокласники

Во многих случаях русские пользователи помнят название сайта на русском языке, но не помнят, как он пишется на транслите или английском. Также часто навигационными запросами являются бренд-запросы, вроде microsoft com или devaka :)

Навигационные запросы используются для нахождения какой-либо информации на конкретном сайте, поэтому добавлять подобные запросы в семантическое ядро, если они не относятся к вашему сайту (в запросе не присутствует название компании, например), не имеет смысла. Даже если по навигационному запросу, касающегося другого сайта, вы выйдите на первую позицию, кликабельность сайта в поисковых результатах будет очень низкой.

Узнать подробнее о классификации поисковых запросов…

  • SEO блог. Новая статья: Типы поисковых запросов. Изучаем цели аудитории
  • 18 Комментариев

Технические ошибки оптимизации сайтов

В данной статье затронут технический аспект оптимизации сайтов и основные недочеты, требующие исправления в первую очередь (см. также статью Основные ошибки поисковой оптимизации сайтов, где описаны общие ошибки оптимизации).

Результаты аудита большинства сайтов показывают, что многие вебмастера допускают одни и те же ошибки в техническом плане. Эти недочеты влияют на продвижение сайта по-разному, одни виды ошибок не позволяют поисковым роботам быстро индексировать страницы сайта, другие дают потенциальную уязвимость для конкурентов использовать эту техническую особенность для своих коварных целей, третьи же ошибки могут в последствии сыграть негативную роль в плане продвижения и позиций. Ниже описаны наиболее часто встречаемые технические недоработки и методы их исправления.

Доступность домена по разным адресам

Когда один и тот же ресурс доступен по разным URL-адресам, например, с префиксом www и без этого префикса, и при этом они не склеены между собой, возникает проблема дублированного контента. Поисковые роботы в данном случае могут посчитать, что по одному из адресов контент не уникален и поместить его в дополнительные результаты поиска. Не всегда выбранный поисковиком адрес дубля устраивает владельца сайта, поэтому следует избегать этой ошибки, склеивая между собой основной домен с неосновным зеркалом или со всеми алиасами домена.

Как проверить наличие ошибки?

Введите в адресную строку браузера адрес сайта с www. и без www. Если сайт доступен и в первом и во втором случае и при этом в файле robots.txt не прописана директива Host, тогда вы не выбрали основной домен для продвижения.

Как исправить ошибку?

Необходимо в файле robots.txt всех зеркал добавить директиву Host с указанием основного домена, например.

User-Agent: Yandex
Host: www.maindomain.ru

Где домен www.maindomain.ru (без http) является выбранным вами основным доменом. См. также статью о продвижении сайтов с помощью зеркал.

К тому же следует поставить 301 редирект с неосновного домена на основной. Таким образом, при вводе, например, адреса http://maindomain.ru/articles/ в браузер, пользователя должно редиректить на основной домен http://www.maindomain.ru/articles/.

Читать дальше описания технических ошибок оптимизации сайтов…

  • SEO блог. Новая статья: Технические ошибки оптимизации сайтов
  • 57 Комментариев

Советы по грамотному составлению анкоров

Экономим ссылочный бюджет грамотным составлением анкоров - Порванную цепь следует починить Каждому оптимизатору известно, что качество продвижения сайта в поисковых системах зависит от качества его внутренней и внешней оптимизации. Качество внешней оптимизации определяется эффективностью размещенных (купленных) ссылок, которая зависит от эффективности донора, правильности составления анкора и от некоторых других факторов. Ниже представлены основные пункты, которые стоит учитывать при составлении анкоров, так как правильно составленный анкор-лист даст больше эффекта в продвижении запросов и сэкономит ссылочный бюджет.

10 советов по составлению анкоров.

Составляя анкоры для своих проектов, некоторые оптимизаторы используют самый простой вариант — прямое вхождение ключевого слова в текст ссылки. Даже при автогенерации анкоров в сервисах автоматического продвижения, максимум используется простое разбавление ссылки, иногда анкор разбивается на пару предложений. Следуя простым советам, если вы прежде не задумывались особо о грамотном составлении анкоров и использовали простые варианты, вы сможете сэкономить ссылочный бюджет минимум в 2 раза, а также увеличить тематический траффик на свой ресурс. Итак…

1. Ключевое слово

Ключевое слово, по которому вы собрались продвигать страницу вашего сайта, должно входить в текст ссылки при составлении анкоров (исключая случаи безанкорного продвижения, см. ниже). Это ключевое слово также должно присутствовать в статистике поиска, то есть, теоретически, это слово или словосочетание люди должны использовать при поиске.

Например, если у вашей компании “РосЕвроОкна-Инвест” имеется сайт по продаже пластиковых окон, то при составлении анкоров ключевое слово РосЕвроОкна-Инвест может быть полезным лишь при брендовом продвижении, в остальных случаях необходимо использовать работающие запросы, так как только они дают нужный траффик.

Читать остальные советы по грамотному составлению анкоров…

  • SEO блог. Новая статья: Советы по грамотному составлению анкоров
  • 51 Комментариев

Локальный поиск в Google

Как часто вы ищете театры, рестораны или свадебные салоны вблизи своего места жительства или в другом месте? Практически, во всех крупных поисковых системах существует сервис локального поиска. В апреле 2009-го года Google ввел свой локальный поиск, когда по запросу, содержащему, наряду с ключевым словом, ваше местоположение, вам показывается карта местности с нанесенными на неё метками и список ближайших заведений. В каких случаях используется локальный поиск в Google, как в него попасть и что влияет на ранжирование в этом списке? На все эти вопросы вы сможете найти ответы в этой статье.

Что такое локальный поиск.

Введите в строке поиска Google запрос театры москвы. Вы увидите примерно следующую картину с представленной картой Москвы и адресами театров в этой местности:

Театры Москвы - скриншот локальной выдачи гугла и метками на карте

Когда запрос содержит в себе координаты места, чаще в виде города, тогда ключевое слово ищется, кроме основной выдачи, также по Google Местам (Google Places в англ. варианте) и результаты отображаются на карте. Существует множество ключевых фраз, для которых не нужно указывать координаты, а поисковая система сама предложит вам ввести ваше местоположение.

Читать дальше о локальном поиске в Google…

Улучшаем ранжирование сайта, не изменяя его контент

Что можно сделать с сайтом, не трогая контент (допустим, в случае, когда нет доступа к администраторской части), чтобы поисковые системы уделяли ему больше внимания и благодарили хорошими позициями в серпе и, соответственно, давали больше траффика? Ниже я привел несколько простых советов, как быстро улучшить позиции своего сайта.

1. Создайте и настройте файл robots.txt

Файл robots.txt, который должен находится в главной папке, может содержать в себе ряд полезных правил:

– Закрытие ненужных страниц (разделов) от индексации роботом.
Все разделы, которые не должны попасть в индекс, например, в случае дублирования контента или разделов, в которые может попасть только авторизованный пользователь (приватный форум) или же админка, необходимо (очень желательно) закрыть в файле robots.txt. При этом, с одной стороны, вы уменьшаете нагрузку на сервер и, с другой стороны, поисковый робот берет только нужный контент.

Пример подобного файла можно посмотреть тут: http://www.yandex.ru/robots.txt.

– Указание пути к xml карте сайта.
Подробней о карте сайта написано в следующем пункте.

– Время задержки между запросами робота.
Яндекс и Bing поддерживают эту директиву – Crawl-delay, которая указывает в секундах задержку между двумя обращениями робота к серверу. Очень полезно, когда робот поисковой системы сильно нагружает сервер. Как эта директива влияет на позиции сайта? Лишь косвенно, влияя на скорость отдачи страниц сервером.

Более подробно о том, как использовать файл robots.txt читайте в разделе помощи яндекса, и также у google.

2. Сделайте карту сайта (Sitemap)

Поисковые системы должны знать о том, по каким адресам находятся страницы вашего сайта, какой контент на них расположен и насколько он важен для посетителей. Если у вас простая навигация, когда любая страница доступна в 1-2 клика от главной, тогда sitemap может и не понадобится. В других случаях, когда структура сайта очень сложная и ресурс имеет множество разделов, желательно создать карту сайта в виде sitemap.xml или на крайний случай в виде sitemap.html.

Узнать больше о простых методах улучшения позиций сайта…

  • SEO блог. Новая статья: Улучшаем ранжирование сайта, не изменяя его контент
  • 40 Комментариев

Использование блогуна для раскрутки сайтов

Интернет, как средство коммуникации постоянно развивается, социальные сети и блоги становятся практически основным средством, которые использует средний пользователь сети. В блогах присутствуют интересные обзоры, в блогах можно узнать актуальные новости по той или иной тематике, в блогах проводятся различные массовые мероприятия, в микроблогах можно общаться как в ICQ, и, таким образом, блоги являются прекрасным источником тематической аудитории, хорошей площадкой для рекламы или хотябы площадкой для тематических ссылок.

Отличный удобный инструмент, которым должен уметь пользоваться каждый оптимизатор при работе с блогами, это безусловно Блогун. Ниже пойдет речь именно об этой системе, я покажу вам ряд преимуществ Блогуна над другими инструментами, а также поделюсь правилами ведения рекламных кампаний для успешно раскрутки своих проектов. Хотелось бы сразу заметить, что Блогун стоит рассматривать не только как инструмент покупки ссылок на блогах, а как комплексный инструмент маркетинга.

Особенности Блогуна

Блогун.ру - организатор рекламных кампаний в блогосфере 1. Ссылки размещаются навсегда
Постоянное размещение ссылок позволяет экономить бюджет при продвижении сайта постовыми или статьями. Это очень удобно, особенно при работе с низкоконкурентными запросами, когда всего 2-5 постовых выводят сайт на самые верхние позиции в поисковых системах.

Многие рекламодатели беспокоятся, что их ссылки будут удалены в будущем недобросовестными блоггерами. По своему опыту скажу, что таких блоггеров практически нет, к тому же скоро в системе появится возможность, когда деньги, оплаченные рекламодателем блоггеру будут заморожены на определенный промежуток времени для уверенности, что пост или ссылка не будет сразу же удалена исполнителем после оплаты.

2. Разнообразие площадок
На сегодня в Блогуне зарегистрировано 23+ тысячи блога, каждый из них имеет разные показатели популярности. С помощью отбора вручную можно подобрать себе наиболее подходящие площадки, также можно настроить автоматический режим, настроив соответствующие фильтры.

Разнообразие площадок заключается не только в показателях популярности, но также и в блогхостингах, то есть региона размещения блога и в вариативности доменных зон. При продвижении сайта в регионах, например, в Питере, можно отобрать блоги по такому критерию (см. рисунок).

Настройка фильтра при отборе блогов

Также, задавая нужные ключевые слова, можно подобрать интересующую тематику сайта. При создании рекламной кампании можно указать, на каких доменах вы хотите разместить рекламу. Например, при продвижении сайта в украинском сегменте, я выбирал только блоги на *.org.ua и *.com.ua доменах.

Читать дальше про роль блогуна в продвижении и раскрутке сайтов…

  • SEO блог. Новая статья: Использование блогуна для раскрутки сайтов
  • 63 Комментариев

Роль окружающего текста в seo

Все оптимизаторы знают, что продвижение сайта основывается на двух факторах: внутренних и внешних. Где под внешними подразумеваются ссылки с различных сайтов-доноров, в качестве анкоров (текстов ссылок) которых используются ключевые слова, по которым необходимо поднять позиции в поисковой системе. Однако, мы забываем о таком важном факторе внешней оптимизации, как окружающий текст ссылки. Давайте рассмотрим подробнее, что это за текст и зачем его использовать при раскрутке сайта.

Окружающий текст или, по-другому, околоссылочный текст – это текст, используемый вокруг гиперссылки. Например,

Наше мебельное предприятие делает мебель на заказ по очень выгодной цене.

В данном случае “мебель на заказ” будет ссылкой, а остальной текст от границ предложения будет околоссылочным (“Наше мебельное предприятие выпускает” и “по очень выгодной цене”).

Чем этот анкор лучше обычного, не использующего околоссылочный текст? Например, можно ведь использовать анкоры такого вида (списком):

мебель на заказ
инструменты вебмастеров
качественное продвижение сайта

Преимуществом первого вида анкоров является естественность. Когда вебмастера ставят ссылки, то установка их в виде списка, через запятую или знак “|” смотрится неестественным, но как только ссылка окружится в текст, то картина меняет вид. Также, окружающий текст позволяет отделить одну ссылку от второй. При покупке ссылок на биржах это важно, чтобы не создавать на доноре блок ссылок и, таким образом, маскировать покупные ссылки под естественные.

Читать дальше про безанкорное продвижение и околоссылочный текст…

Продвижение сайтов с помощью зеркал

Работа с зеркалами достаточно хорошо распространена в seo. С помощью зеркал можно распределять нагрузку на сервера для крупных ресурсов, ещё их используют для того, чтобы не утерять свою аудиторию при изменении бренда или просто при переезде на новый домен, а также зеркала используют в некоторых случаях при продвижении сайтов. В этой статье пойдет речь о пользе зеркал при продвижении своих или клиентских проектов.

Известно, что поисковые системы склеивают зеркала между собой, так как все они копируют друг друга. При склейке в поисковой выдаче присутствует лишь главное зеркало, но показатели других не теряются, а суммируются, так как ссылочные графы всех зеркал склеиваются в один. Это значит, что показатель тИЦ основного сайта будет равен сумме показателей тИЦ всех зеркал, а статический вес страниц главного зеркала будет учитывать статические веса остальных зеркал. Также, главным преимуществом склейки является то, что ссылочные веса передаются на основной домен, аналогично статическому.

Исходя из сказанного, можно вывести ряд полезных свойств продвижения сайта зеркалами (схема подобного продвижения представлена на рисунке).

Схема продвижения сайта зеркалами

1. Легкая переориентация сайта на другие запросы.
Если вам необходимо продвигать главную страницу сайта по большому количеству запросов, можно поделить их на группы и по каждой группе продвигать отдельное зеркало. В этом случае легко изменить набор запросов, по которым продвигается сайт, лишь расклеив одно (или несколько) из зеркал и добавив другие.

Читать другие преимущества продвижения зеркалами…

  • SEO блог. Новая статья: Продвижение сайтов с помощью зеркал
  • 62 Комментариев

Вспоминаем главное свойство ссылок

Пешеходный переход для пингвинов в зоопарке Мы с вами живем и наблюдаем те времена, когда ссылки предназначаются, в основном, для поисковых роботов, мы составляем и следим за правильными анкорами, стараемся передать максимум веса с доноров, ищем доноров с лучшими пузомерками и т.д. Увлекшись этой игрой, мы забыли основное назначение ссылки – быть кликнутой! Что это значит? Давайте разберемся.

Безанкорные ссылки
Расставляя ссылки на свои сайты на таких ресурсах, как форумы, блоги или даже социальные сети, мы пытаемся волей-неволей вставить ключевое слово в анкор, забывая, что ссылка при этом становится спамной и кликнуть на неё хочется всё меньше и меньше. В то время, как по безанкорным ссылки “смотри здесь”, “на сайте http://devaka.ru” или “сюда” обычно переходят заинтересованные посетители. Поисковые системы также знают о важности этих ссылок и учитывают окружающий их текст.

Ссылки с nofollow
Да, ссылки, закрытые в noindex для Яндекса или имеющие атрибут nofollow для других поисковых систем, не передают веса, однако они передают посетителей ;) и это самый важный фактор, которым надо руководствоваться при расстановке своих ссылок на сторонних ресурсах. Пусть ссылки в комментарях на блоге закрыты от индексации, однако, это не значит, что к вам по ссылки из комментариев на чужом ресурсе не может прийти ваш клиент.

Читать дальше о главном свойстве ссылок с примерами…

  • SEO блог. Новая статья: Вспоминаем главное свойство ссылок
  • 35 Комментариев

Ссылки с Twitter и Facebook для Google

Недавно Мэтт Каттс рассказал нам о влиянии ссылок с таких сервисов как фейсбук и твиттер. Ссылки с релевантных и значимых сайтов всегда хороши для траффика и формирования доверия к сайту, однако, не было понятно, как Google учитывал ссылки с таких платформ, как Twitter и Facebook?

В сущности, Мэтт подтвердил, что Google обрабатывает эти ссылки также, как и с любых других сайтов. То есть, получается, что ссылки с твиттера влияют на PageRank сайтов.

Если все эти ссылки учитываются, то нужно иметь их в виду. Касательно Facebook также надо учесть, что некоторые профили приватные, поэтому Google не имеет к ним доступ, чтобы проиндексировать и найти на этих страницах ссылки. Если страницы публичные, то они влияют на PageRank, сказал Мэтт Каттс. В Твиттере же многие ссылки стоят с аттрибутом nofollow.

Для многих это не было секретом, однако, услышать подтверждение от представителей гугла было приятно :)

Что такое грамотная перелинковка

С понятием перелинковки многие вебмастера и сеошники знакомы. Под этим термином подразумевают простановку внутренних ссылок с одних страниц сайта на другие для передачи большего веса более значимым страницам. Однако, при непосредственной работе с сайтом возникает множество вопросов и главный из них: “Что такое грамотная перелинковка?”, подразумевая тот факт, что существует также “неграмотная”. Давайте попробуем разобраться в грамотности внутренней перелинковки страниц сайта.

Точка зрения пользователя

С точки зрения пользователя грамотно перелинкованные страницы сайта дают возможность легко и просто производить навигацию по сайту, экономя время посетителя на поиск нужной информации.

Точка зрения поискового робота

Для поискового робота также важна навигация, чтобы иметь представление о структуре сайта. Однако, внутренние ссылки также влияют на формируемый ботами анкор-лист и на статический вес страниц (вИЦ).

Грамотной перелинковкой можно будет назвать ту, которая оптимально объединяет соответствие всем трем требованиям:

Навигация. Её удобство и минимум уровней вложенности любой страницы сайта.
Статический вес. Наиболее значимые страницы должны быть наиболее весомыми.
Ссылочный вес. По тексту ссылки на странице-доноре должна быть понятна тематика и смысл контента на акцепторе (как для бота, так и для пользователя).

Рассмотрим каждый из этих пунктов.

Читать дальше про грамотную перелинковку…

Методы получения обратных ссылок на Интернет-магазин

Как раскручивать Интернет-магазины? Получайте обратные ссылки бесплатно!

Ниже представлены некоторые из простых методов получения обратных ссылок на страницы товара для вашего Интернет-магазина, которые не требуют денежных затрат, а лишь временных.

1. Начните вести блог.
Многие компании ведут блог, чтобы быть ближе к клиентам, рассказывать им о происходящих событиях, новостях, скидках, конкурсах и т.д. Однако, вести блог также хорошо для SEO, так как хорошие статьи (посты на блоге) всегда привлекают хорошие ссылки. Вы можете создать блог на отдельном домене, однако лучше сделать его в отдельной директории своего сайта.

2. Напишите уникальные описания товара (свойства и преимущества) с ссылками на страницы и отправьте их в различные каталоги статей.
Писать статьи, тем более уникальные — очень трудоемкое дело, однако игра стоит свечь. Свои статьи вы можете отправлять в хорошие релевантные каталоги или воспользоваться особым секретом продвижения статьями.

3. Напишите что-нибудь оригинальное о товаре и проверьте, сослались ли на вас с блогов или социальных сетей.
Оригинальность выложенного в онлайн труда зависит от вашего воображения и ничего более. Попробуйте написать то, что заинтересует не только ваших клиентов, но и многих других пользователей сети, которые будут рады поделиться ссылкой на ваш сайт со своими друзьями и знакомыми.

Читать дальше о способах получения ссылок на Интернет-магазины…

  • SEO блог. Новая статья: Методы получения обратных ссылок на Интернет-магазин
  • 23 Комментариев

Ежедневные задачи для мониторинга здоровья сайта

Ниже приведен небольшой список советов для сеошников, которые серьезно заботятся о здоровье своего сайта.

1. Найдите “неизвестные страницы” в индексе поисковой системы

Проверять проиндексированные страницы это один из лучших способов увидеть все ли идет хорошо. Если кто-нибудь взломает ваш сайт или часть сайта и будет пытаться перенаправлять вес на свои ресурсы, то эти страницы появятся в результатах поиска по оператору site: (в Google).

2. Проверяйте общее число проиндексированных страниц

Если вы заметите необычные взлеты или падения количества проиндексированных страниц, тогда, вероятно, что-то не так. Может быть ошибка индексации или неправильный код страницы. Убедитесь в том, что это число не показывает резких изменений.

3. Проверяйте сайт в панели управления для вебмастеров на наличие ошибок

В Google панель управления для вебмастеров находится по адресу http://www.google.com/webmasters, в Яндексе это http://webmaster.yandex.ru/wmconsole/. Если поисковая система найдет какие-то ошибки на сайте, она не замедлит вас об этом уведомить.

4. Регулярно проверяйте исходящие ссылки на наличие ненормальных ссылок

Для этого можно использовать програму Xenu, свободно распространяющуюся по сети. Если у вас небольшой сайтик, то плохие исходящие ссылки могут создать серьезные проблемы, поэтому проверяйте наличие спама и избавляйтесь от него.

5. Следите за наличием 404 ошибок и битых ссылок на сайте

Подобные ссылки также можно найти с помощью Xenu, либо используя панель управления для вебмастеров.

Эти пункты необходимо регулярно выполнять и тогда вы будете постоянно в курсе правильной работы сайта (для поисковой системы) и сможете быстро предотвратить любые надвигающиеся проблемы.

  • SEO блог. Новая статья: Ежедневные задачи для мониторинга здоровья сайта
  • 24 Комментариев

Спонсорство WordPress шаблонов в SEO

В среде оптимизаторов существует такой метод раскрутки сайта в поисковых системах как спонсорство WordPress шаблонов. Заключается этот способ в том, что разработчик шаблона ставит в футер темы одну или несколько ссылок спонсоров, темы распространяются по всему Интернету и спонсор получает множество обратных ссылок на свой сайт.

Спонсорская тема на примере ComFi.com

В зависимости от эстетического вида WordPress темы, её функциональности и авторитета автора, цена спонсорских ссылок варьируется от $75 до $200 и, возможно, в некоторых случаях, выше. Количество обратных ссылок при распространении шаблона варьируется от нескольких тысяч, до нескольких десятков и даже сотен тысяч.

Этот метод спонсорства шаблонов широко используется в буржуйнете и распространяется не только на WordPress, но также и на другие движки блогов, форумов (например, Invision Power Bulletin и phpBB) и прочих сайтов.

С другой стороны, если вы не оптимизатор, а дизайнер (разработчик), то создавая темы форумов и блогов, можно в месяц легко зарабатывать от $500, разрабатывая не на заказ, а то, что нравится самим. При этом лучше делать их на нескольких языках (главное на английском) и распространять в буржуйнете, большинство оптимизаторов оттуда до сих пор верят в эффективность такого ссылкостроения.

Читать дальше про спонсирование тем форумов и блогов…

Секрет продвижения статьями

Оптимизация статьями является одним из эффективных средств как для продвижения ресурса по необходимым запросам в поисковых системах, так и для привлечения дополнительной целевой аудитории из других источников. Знание этого инструмента необходимо каждому оптимизатору, однако что вы слышали о методе продвижении сайта статьями? Порядка 95% читателей ответят, что такой вид продвижения основан на размещении своих статей (сгенерированных или отрерайтенных) на чужих площадках или в каталогах статей. Отчасти это верно, но лишь отчасти… В данной статье рассмотрен алгоритм применения подобной оптимизации, который, на взгляд автора, походит для всех типов сайтов.

Немного истории

Интерес к продвижению статьями начал появляться с конца 2007-го начала 2008-го года, когда на SEO форумах оптимизаторы начали говорить о том, что иметь ссылки со статей намного лучше, чем обычные в футере или где-либо в другом месте на сайте. В феврале 2008-го крупной бирже ссылок sape даже пришлось ввести поддержку покупки контекстных ссылок. Ниже на рисунке можно посмотреть возрастающий интерес к этой теме.

Статистика запроса продвижения статьями.

Однако, как год назад, так и сейчас не существует конкретного алгоритма для продвижения сайта статьями, каждый оптимизатор использует свою методику, в зависимости от целей и тематики сайта. Существует, например, способ, когда пишется одна статья нужной тематики (обычно заказывается у копирайтера) на 3-5 тыс. символов, потом из неё генерируется порядка 100 новых статей (вроде рерайта, но не очень читаемый) и полученные статьи размещаются на разнообразных площадках с нужными ссылками в тексте.

Несмотря на эффективность метода, он имеет ряд недостатков: сеть Интернет засоряется множеством безполезного материала, поисковые машины тратят свои ресурсы на их индексацию; пользователи, читающие подобные статьи, с очень малой вероятностью перейдут по ссылке на сам сайт; статья не размещается на продвигаемом сайте; метод можно причислить к серым (иногда даже к черным), так как работа проводится только для поисковых систем, не учитывая пользователей и на данный момент подобных подход малоэффективен, так как невозможно разместить некачественные статьи на качественных площадках.

Читать дальше про алгоритм оптимизации сайта статьями…

20 лучших цитат из SMX London

SMX London - Search Marketing Expo 18-19 мая прошла конференция SMX London, в которой принимали участие многие известные западные сеошники, а также сотрудники поисковых систем Google, Yahoo!, Microsoft.

Эдуард Блесквер (Eduard Blacquière) извлек из этой конференции 20 лучших цитат, весьма полезные, так как коротко описывают ситуацию в мире SEO. Вы можете ознакомиться с ними ниже или прочитать оригинал, чтобы лучше понять, о чем идет речь.

1. Сайты не ссылаются на другие сайты. Люди указывают на работы других людей.
(Lyndon Antcliff, Cornwall SEO)

2. Если вам нужны ссылки, а не траффик, тогда использование Twitter’а напрасно.
(Patrick Altoft, Branded3)

3. У вас есть примерно 2.7 секунды для того, чтобы оказать влияние на линкера (того, кто ссылается, прим. devaka).
(Lyndon Antcliff, Cornwall SEO)

4. Не имеет значения, заплатили ли за размещение ссылки или нет. Важно то, выглядит ли конечный продукт как платная ссылка или нет.
(Patrick Altoft, Branded3)

5. Данные Алексы (Alexa.com, прим. devaka) немного лучше, чем случайные догадки.
(Rand Fishkin, SEOmoz)

Читать остальные 15 цитат из конференции SMX London…

Основные ошибки поисковой оптимизации

Ниже представлен список наиболее распространенных ошибок, которые совершают вебмастера при оптимизации сайтов под Яндекс, Google или любую другую поисковую систему. Ознакомьтесь с ними, чтобы впредь не наступать на чужие грабли.

1. Игнорирование SEO
Это самая большая ошибка. Если вы сделали сайт для себя и он вам нравится, тогда речи о SEO быть не может, однако, если вы делали сайт для других, что более вероятней в нашем коммерциализованном мире, и хотите привлечь заинтересованную к вашей тематике аудиторию, тогда не игнорируйте SEO, приложите все усилия, чтобы как можно более оптимальней использовать возможности Интернет-сферы.

2. Неосведомленность о правилах нахождения в индексе поисковика
Если вы хотите, чтобы ваш сайт находился и хорошо ранжировался в поисковой системе, необходимо сперва ознакомиться с её правилами. Многие вебмастера жалуются, — “мой сайт забанили, что мне делать?”. Прежде всего, надо прочеть руководство для вебмастеров в Google и советы вебмастеру от Яндекса. Начинать любую SEO кампанию, не зная правил поисковых систем, это все равно, что стараться понравиться какому-либо человеку, не зная его вкусов и мировоззрения.

3. Недоделанный сайт
У вас сайт находится на стадии разработки и при этом вы уже начали SEO кампанию? Не делайте такой ошибки. Целью любой SEO кампании является привлечение целевой аудитории (и её удержание или конверсия), а не просто занятие хороших позиций в результатах поиска. Если посетители придут к вам с поисковых систем и не найдут то, что искали, то вы потеряли потенциального клиента и в следующий раз он может зайти на ваш сайт, но уже с более низким уровнем доверия. В этом случае вы неэффективно тратите свой бюджет на раскрутку сайта.

Одно из правил SEO гласит — сначала оптимизация, потом раскрутка. Сделайте сайт таким, чтобы при его посещении процент отказов был минимальным. Даже при проведении технических работ старайтесь делать пребывание посетителей на сайте информативным. Сделайте все возможное, чтобы посетитель обязательно вернулся к вам и рекомендовал ваш ресурс своим друзьям и знакомым.

Читать остальные ошибки оптимизации сайтов…

  • SEO блог. Новая статья: Основные ошибки поисковой оптимизации
  • 22 Комментариев

Траст и авторитетность сайта в поисковых системах

В чем секрет хороших позиций сайтов в Google и других самых популярных и авторитетных поисковых системах? Многие оптимизаторы до сих пор гоняются за PageRank’ом (весом страниц), пологая, что их сайты при этом будут хорошо ранжироваться, совершенно забыв о том, что PageRank является лишь одним из многих факторов при ранжировании результатов поиска, и который зачастую обманчив, тулбарное значение в любом случае весьма неточно.

Наблюдая за Википедией, многие считают, что она обгоняет другие сайты благодаря пейджранку или, возможно, из-за множества ссылок на эту энциклопедию, однако, существуют другой мощный фактор, которому стоит уделить тщательное внимание.

Поисковые машины учитывают релевантность страниц и внешние ссылки, однако также они уделяют внимание трасту и авторитетности сайта. Что означают эти слова и как заработать хороший траст для своего ресурса?

Читать дальше о трасте и авторитетности ресурсов в поисковиках…

  • SEO блог. Новая статья: Траст и авторитетность сайта в поисковых системах
  • 122 Комментариев

Как изменялся алгоритм ранжирования сайтов в Google

На днях Рэнд Фишкин опубликовал интересный пост в блоге SeoMoz, где графически изложил свое личное мнение о том, как годами изменялось влияние ключевых факторов ранжирования сайтов в Google.

Значимость различных факторов в алгоритме ранжирования Google

График изменения значимости факторов ранжирования для Google с 2002 года

Читать дальше об изменении значимости факторов ранжирования в Google…

  • SEO блог. Новая статья: Как изменялся алгоритм ранжирования сайтов в Google
  • 28 Комментариев

Теги STRONG, EM, B и I в SEO

Какой тег лучше использовать с точки зрения SEO, <strong> или <b>, <em> или <i>? До сих пор ряд оптимизаторов считают, что использовать теги <strong> и <em> лучше при форматировании текста на сайте. Тут необходимо прояснить несколько моментов.

1. W3C рекомендует использовать тег strong вместо b, однако это всего-лишь рекомендации, не стандарты. То же самое по поводу тега em.

2. Поисковые системы и пользователи не видят разницы в тегах выделения жирным и наклонными шрифтами.

Для Google этот момент прокомментировал Мэт Катс.

Недавно поднимался вопрос среди вебмастеров, в котором спросили, что лучше использовать, тег <b> или лучше было бы <strong>; ситуация неясна, так как раньше все использовали <b>, а W3C рекомендует использовать <strong>. Не стоит безпокоиться об этом!

Прелесть в том, что, фактически, инженер показал мне кусок кода, где я видел сам, что Google дает тегам bold и strong один и тот же вес (спасибо Паул, я весьма благодарен!). Вдобавок, я проверил, он также нашел код, который показал, что em и i обрабатываются также одинаково.

Теперь вы знаете что делать — верстайте так, как рекомендует W3C, делайте код семантически верным и не безпокойтесь о своих старых тегах, так как Google поддерживает их и обрабатывает абсолютно одинаково.

Читать дальше советы по использованию тегов strong, b, em и i…

Использование и оптимизация тега title

Тег <title> является самой важной частью страницы любого сайта, поэтому стоит уделить большое внимание тому, как вы его составляете. Создание заголовков подобно искусству и не каждый может составить его нужным образом с первого раза, для этого требуется знать некоторые тонкости. Применяя для своих сайтов приведенные 12 советов по использованию и оптимизации тега title, вы избежите множества проблем в будущем.


1. Тайтл должен отражать суть страницы.

Этот пункт относится к юзабилити. Необходимо помнить, что тайтл показывается в результатах поиска во всех поисковиках и на него в первую очередь обращают внимание пользователи. От того, что вы поместите в тег <title> будет зависеть кликабельность и, соответственно, количество получаемого траффика.

Также тайтл используется при описании страницы (или сайта) в каком-нибудь каталоге сайтов, каталоге полезных ссылок, социальных закладках и других социальных сервисах. Если он не будет отражать суть контента, тогда страница не получит качественного целевого траффика. Для наглядности, сравните следующие примеры:

<title>Главная страница сайта</title>
и
<title>NIGMA – интеллектуальная поисковая система</title>

или же внутренние страницы

<title>Тест</title>
и
<title>Тест: Настоящий ли ты блоггер?</title>

Читать далее советы по оптимизации тега title…

Забудьте о плотности ключевых слов

Заметка написана по материалам DailySEOTip: Forget about Keyword Density и SeoMoz: Keyword Usage & Targeting.

Тема о плотности ключевых слов обуждается довольно часто. Люди до сих пор пытаются повторять ключевые фразы множество раз для того, чтобы поисковый бот понял их. Поисковые системы более толковые, чем вы думаете – не стоит прилагать множество усилий для того, чтобы они поняли ваш контент. Плотность слов не является частью современного алгоритма работы поисковой системы по той простой причине, что так было бы проще управлять поисковой выдачей, вставляя нужное количество ключей в текст, поисковики не могли бы правильно отвечать на запросы пользователей.

Почему концепция плотности ключевых слов так рискованна?

Во-первых, люди должны создавать качественный контент для своих сайтов, не пихая на страницы кучу ключевых фраз. Также, заботясь о плотности ключевых слов, создается иллюзия, что контент предназначен в основном для поисковых машин, и только потом для людей.

Чему необходимо уделять внимание вместо этого?

Естественно, на уникальный качественный контент. Но для того, чтобы эта подсказка не выглядела обычной, ниже приведено несколько других подсказок, как оптимизировать ваши страницы для поисковых систем (а также оставить их привлекательными для людей).

Читать дальше о плотности ключевых слов и др. подсказки по оптимизации…

Хороший PageRank без внешних ссылок

Тема не нова, однако не будет лишним её вспомнить. Ниже описана методика, как добиться на своем сайте неплохого значения PageRank (далее просто PR) без каких-либо внешних ссылок.

Известно, что значение PR можно посчитать из формулы

PR = (1-d) + d*SUM[PRi/Ci]

Не буду вдаваться в подробности и описание этой формулы (подробнее можно почитать в статье про PR).

Из формулы видно, что PRmin = 1-d = 0.15 (при отсутствии внешних ссылок). Теперь предположим, что у вас на сайте более 10к страниц, и в гугли индексе их оказалось 30к. Каждая из этих страниц на сайте ссылается на главную страницу, а также на странице около 20 ссылок (на подразделы). Таким образом, главная страница будет иметь следующий PR

PR = (1-d) + d*N*PR/C = 0.15 + 0.85*30000*0.15/20 = 191.4

То есть, тулбарный PR будет равен

TBPR = Log(191.4, 7) = 2.7 ≈ 3

Вывод: на сайтах с большим количеством страниц, вроде digg и delicious или других, сама система дает неплохой PR для вашего сайта. Это, конечно, не означает, что необходимо засорять интернет безполезными страницами. Но мне кажется, что эта теория довольно интересна и, возможно, пригодится оптимизаторам-вебмастерам при построении сайтов.

SEO Оптимизированный логотип

Всем известно о том, что почти каждый современный сайт наделен логотипом. Логотипы бывают разные – текстовые, геометрические, web2.0 и другие, однако, с точки зрения SEO, совершенно не важно, какого типа вы используете логотип, а важно то, как он оформлен в HTML коде. Именно об оптимизации логотипов и хотелось бы поговорить.

По назначению, логотипы можно подразделить на те, которые служат только для оформления страницы и не служат для навигации и те, которые являются частью навигации и должны вести на главную страницу сайта.

Если говорить о логотипах первого типа, то в зависимости от объема страниц и информации их можно оформлять либо картинками (тег img), либо с помощью CSS стилей. При небольшом количестве контента и наличии всего одной или нескольких страниц на сайте, хорошим решением будет использовать для логотипа тег <img> с нужными ключевыми словами в аттрибуте alt, которые будут дополнять контент страницы.

<div class=“logo”><img src=“images/logo.jpg” alt=“Ключевые слова” width=“100” height=“30” /></div>

Заметьте, что в аттрибуте alt нужно писать ключевые слова, по которым оптимизируется сайт, можно с названием сайта, создавая бренд, а не надписи вроде “Логотип компании“. При таком подходе ваш логoтип также будет выдаваться в результатах поиска изображений по выбранным вами ключам или бренду. Пример можно посмотреть на сайте seogen.net – seo генератор.

Читать дальше об оптимизации логотипов в HTML коде…

Сколько слов учитывается в тексте ссылки?

Обычно размещаемые на сайт обратные ссылки ставятся с коротким анкором. Однако, в ряде случаев, приходится составлять краткое описание сайта, пресс-релиз или просто текст, имеющий достаточно большой для ссылки объем (например, для каталога статей, обзорника или другого ресурса, который ставит на вас ссылку не только в заголовке, но и в кратком описании).

В подобном случае необходимо ставить ключевые слова на первые места в анкоре, так как не все слова попадают в так называемый анкор-лист.

Для поисковой системы Google лимит на количество слов в ссылке составляет 8 слов, для Яндекса – 16.

Примеры запросов для определения лимита на количество слов в анкоре…

  • SEO блог. Новая статья: Сколько слов учитывается в тексте ссылки?
  • 6 Комментариев

Оптимизация AdSense блоков - Первые шаги

Полезные советы от австралийских оптимизаторов о самых первых шагах, которые необходимо предпринять при оптимизации рекламных блоков AdSense на своем сайте.

AdSense для многих вебмастеров является почти единственным средством для существования. Зная это, оптимизаторы Google решили дать несколько советов в формате видеокурсов, как можно увеличить заработок на контекстной рекламе.

1. Используйте большие рекламные блоки

Часто можно услышать от издателей вопрос, какие лучше размеры блоков использовать на своем сайте. Самые оптимальные эти три:

  • 300×250 баннер
  • 728×90 горизонтальный небосксреб
  • 160×600 вертикальный небоскреб

Эти блоки показывают лучшие результаты как для вебмастеров, так и для рекламодателей. Рекламодатели любят эти форматы, а также пользователи могут найти подходящую для них рекламу, видя блоки больших размеров.

При планировании дизайна сайта Google рекоммендует использовать по крайней мере один из описанных форматов на странице, что существенно увеличит прибыль от AdSense. Вобщем, чем больше размер, тем лучше ;)

Читать дальше об оптимизации блоков AdSense для увеличения заработка на контекстной рекламе (видеокурсы от Google)…

  • SEO блог. Новая статья: Оптимизация AdSense блоков - Первые шаги
  • 52 Комментариев

Входящие (обратные) ссылки на сайт

В продолжение статьи об исходящих ссылках с сайта следует поговорить о входящих или, так называемых, обратных ссылках. Данная статья написана по материалам блога Google для вебмастеров о входящих ссылках.

Входящие ссылки это те, которые ссылаются на вас обратно с других доменов, то есть внешние ссылки на ваш сайт. Обратные ссылки могут привести новых пользователей и, если они качественные и естественные, тогда они являются одним из положительных сигналов (факторов) для поисковой системы о важности вашего сайта. Другие факторы включают многие вещи, которые выявляются после анализа поисковым роботом контента страниц, а также соответствие сайта географическому положению и другие.

Читать дальше информацию о входящих ссылках и их влияние на ранжирование…

Google: Исходящие ссылки с сайта

С понедельника 6.10.08 на блоге Google для вебмастеров началась ссылочная неделя. Каждый день блоггеры добавляют статьи, касающиеся ссылок и всех вопросов, связанных с сылками: внутренние ссылки, внешние ссылки, исходящие. Все, что вы хотите узнать о ссылках, будет представлено на этой неделе.

Сегодня ими предоставлен пост об исходящих ссылках, перевод которого я и привожу в этой статье.

Читать дальше рекоммендации Google об исходящих ссылках…

Динамические и статические URL: За и против

На официальном блоге Google для вебмастеров 22-го сентября 2008 г. была опубликована статья о динамических и статических URL, которая вызвала большой отклик вебмастеров, в основном не согласных с политикой, заявленной в посте. Для начала разъясним о чем идет речь.

Читать дальше о динамических и статических URL, а также о комментариях вебмастеров по поводу преимуществ тех или иных применяемых типов урлов…

  • SEO блог. Новая статья: Динамические и статические URL: За и против
  • 9 Комментариев

Эффективное создание поисковой рекламной кампании

В статье приведен перевод зарубежного материала эксперта поисковой рекламы Дэвида Жетела “Убийственная PPC Реклама”. Девид имеет 25-летний маркетинговый стаж, пишет статьи, проводит лекции и семинары, а также активно участвует в Профессиональной Организации Маркетинга Поисковых Технологий (SEMPO).

Данный материал будет полезен разработчикам рекламных кампаний, а также всем заинтересованным в поисковой рекламе лицам.

На протяжении многих лет агенство Девида разрабатывало сотни поисковых реклам, многие из которых не удались из-за неприменения к ним тех шагов, которые описаны в данной статье.

Основные принципами являются:

  • Описание выгоды лучше, чем описание характеристик
  • Обращайтесь непосредственно к вашей аудитории
  • Призовите пользователей к действию
  • Выставьте себя на показ, если возможно
  • Создайте ощущение спешки
  • Бесплатно значит хорошо
  • Необходимо выделиться
  • Заголовки – это самое важное в рекламном блоке

Читать подробно о том, как создавать эффективную поисковую рекламную кампанию …

  • SEO блог. Новая статья: Эффективное создание поисковой рекламной кампании
  • 13 Комментариев

Об индексации Flash сайтов

Этим летом на официальном блоге Google появилась информация о том, что поисковая система Google научилась извлекать данные из Flash файлов. Теперь Google может видеть текст и ссылки внутри Flash файлов, но не структуру и контекст.

Из-за того, что поисковики не могут видеть структуру flash сайта возникает вопрос, как быть веб дизайнеру? Единственное правило – показывать ботам поисковых систем то же самое, что и пользователям. Если вы этого не сделаете, то сайт рискует стать подозрительным для поисковых алгоритмов. Это простое правило охватывает множество вариантов, включая клоакинг, яваскрипт редиректы, спрятанный текст и страницы дорвеев. Но инженеры Google предлагают немного больше практических советов.

Читать дальше практические советы при создании Flash сайтов …

  

Последние записи в блоге:

Обратная связь

Предложите тему статьи, задайте вопрос или сделайте замечание по работе блога:



SEO Эксперименты (последние 3):