Олег Саламаха, Netpeak: «Не стоит все карточки товара набивать супер-информацией»
Две недели назад SEO-аналитик компании Netpeak и один из разработчиков сервиса Prodvigator, Олег Саламаха выступил на одном из бесплатных вебинаров по интернетмаркетингу, которые проводит академия интернет-маркетинга WebPromoxExperts.
Первые полчаса Олег рассказывал про автоматизацию и семантику (наложив это на возможности сервисов Нетпика), а вторые полчаса — отвечал на вопросы. Ребята из академии расшифровали самые интересные ответы и попросили опубликовать. Надеюсь, вам они также будут интересны.
Олег, можно ли закрывать страницы с дублированным контентом тегом canonical?
Да, canonical поможет. Я бы действительно поставил canonical. Но у меня есть множество примеров, когда robots.txt игнорируется поисковой системой. В справке Google написано, что robots.txt — это только рекомендации «что именно не включать в ранжирование». Причем не в индекс, а именно в ранжирование.
Это означает, что на закрытые страницы робот может спокойно переходить, он может сохранять информацию, которая есть; но, возможно, не будет ее ранжировать.
Еще вариант — кроме canonical поставить noindex и nofollow именно в мeтaтегах. Они имеют более высокий приоритет, чем robots.txt. И если у вас попало что-то в индекс (что туда не должно было попадать) нужно открыть это в robots.txt и закрыть в мeтaтегах. Тогда будет проще выкинуть из индекса.

Если для сайтов назначены разные регионы, могут ли они нормально ранжироваться в своем регионе?
Есть rel="alternate", с помощью которого можно спокойно ранжировать сайты по разным регионам, но пока результаты не всегда однозначны.
Если сайт на 20 языках, лучше один домен или много доменов? Это вечный спор. Я за то, чтобы использовать один домен. Потому что весь статический вес, который вы получите на данный домен, будет работать на все языки.
Правда, тут надо учитывать много факторов: тематику, в каких регионах и т.д. Но я все равно за один домен.
Как карточку товара можно насытить дополнительной ценностью для улучшения ранжирования, если нет возможности для каждой писать описание?
Сложный вопрос, он требует непосредственной работы с сайтом. Чтобы посмотреть — что за тематика и что можно добавить. Можно добавить информацию по доставке, можно попробовать написать какие-то отзывы, обзоры на популярные товары и т.д.
Но тут есть один момент, про который очень многие забывают. Не стоит все карточки товара набивать суперинформацией.
У вас есть какой-то процент товаров, которые лучше всего продаются. Поработайте хотя бы с ними. Просто так получается, что почти все говорят: «Ну мы же не можем для 10 000 товаров написать страницы или какие-то дополнительные описания» — и не пишут ни одного. Возьмите хотя бы 10 товаров, сделайте это для них! Это даст эффект намного больше, чем просто сидеть и говорить, что мы не можем.
Что изменилось в методике написания статей и подбора ключевых слов?
Для подбора ключевых слов у нас появилось очень много автоматизации, много интересных вещей, которые мы используем.
С точки зрения написания статей нужно признать, что до недавнего времени мы привыкли спамить. И сейчас Google начал очень хорошо ранжировать текстовые документы, начал разбирать синонимы и прочие вещи. Нам не очень известно, что там происходит. Но анализируя выдачу я вижу, что действительно учитываются множество факторов в текстовом ранжировании, которые не учитывались раньше.
Это не всегда правильно срабатывает, потому что по запросу “какой-то товар обзор” будут показываться страницы с отзывами об этом товаре. Но Google как-то сопоставляет два слова.
Что касается написания статей, есть одна хорошая методика. Вам нужно просто задать вектор тематики вашего сайта, чтобы направить его в правильное русло. Нужно выбрать ключевые слова (не фразы) и рекомендовать их копирайтеру. Мой любимый пример по сноуборды: например, по запросу “как сноуборд” показываются интересы пользователей в Google:
— «Как выбрать сноуборд»
— «Как выбрать размер сноуборда»
— «Как купить ботинки»
— «Как выбрать крепления» и т.д.
Собрав список таких запросов и дав на них ответы, вы получите идеальный текст. Потому что он не будет переспамлен и налит водой. Мы все знаем, как копирайтеры пишут тексты, да? Им заказали пять тысяч символов, они написали на три тысячи и еще на две тысячи долили воды. Текст стал уникальный, просто супер. Но с точки зрения удобства для пользователя он ужасен.
Если же он просто будет отвечать на вопросы — помоему это гораздо лучше.
Насколько целесообразно выделять на сайте сортировки типа «дешевые» «название товара+кредит» и т.д.?
Исходите не из того, что дешево, кредит и т.д. Исходите из семантики. Если есть такая семантика на сайте, под определенную группу товаров — тогда это нужно делать.
Например, есть каталог ноутбуков, в котором 40 000 наименований. Если посмотреть статистику различных сервисов, частотность, поискать ключевые слова — вы увидите, что многие ищут просто «ультрабуки» или «тонкие ноутбуки». Если вы видите, что данные фразы пользуются популярностью, то на основе характеристик можете спокойно создавать раздел «тонкие легкие ноутбуки»
Каких сюрпризов ждать с прилетом Колибри?
Не думаю, что стоит ждать каких-то больших сюрпризов. Многие ощутили, что сайты вернулись на свои позиции, жесткий фильтр упростили. Я думаю, что нужно будет пересмотреть свое видение анализа семантики и то, как мы тратим деньги (на что тратить больше не стоит).
Например, есть запрос «Samsung Galaxy 3». Если вы зайдете в Google и посмотрите выдачу по данному запросу, то увидите очень много информационных сайтов и почти не увидите коммерческих. Что это означает? Что Google посчитал этот запрос информационным и тратить на него деньги нет смысла. И если при этом у вас есть интернет-магазин, который продвигается по данному запросу, то все эти деньги, которые вы выкинули на эту фразу, просто выкинуты в никуда. И таких запросов достаточно много.
Насчет Колибри я сейчас боюсь что-то говорить. Но последний апдейт показал, что выросли старые трастовые сайты, у них у всех очень выросла видимость.
Используете ли вы коллокации для копирайтеров?
Используем обратные коллокации — то, что нельзя писать. Мы собрали все тексты, посчитали частотность фраз и запретили копирайтерам писать самые частотные из них. Очень смешно получилось.
Если эти коллокации совместить, можно написать текст на любую тематику. Там есть фразы «В нашем магазине вы можете купить» или «На нашей интернетвитрине представлены»… список был достаточно большой. Если эти спамные слова не использовать, тексты получаются намного лучше. Этот метод рекомендовал Алексей Чекушин на одном из своих выступлений.
Какой процент является нормальным во внутренней перелинковке?
Внутренняя перелинковка имеет свойство быть более стабильной. Переспамить в ней сложнее, чем во внешней. Но действительно есть фильтры за внутреннюю перелинковку. Если вы попадаете под такой фильтр, то там просто снимается вес.
Почему нельзя говорить про процент спама в анкор-листе? Потому что для текстовой релевантности не используются привычные нам понятия «тошнотности». Там используется функция, которая быстро набирает насыщение. Поэтому лучшим вариантом является употребление одного слова один, два, три раза — этого достаточно для насыщения анкор-листа словом (заметьте, именно словом, не фразой) и для того, чтобы сделать страничку релевантной именно этим словам.
Внутренней перелинковкой мы не только насыщаем анкор-лист, также необходимо определить вес на правильные страницы. Если для перелинковки брать фразы из Google Anatytics, получится много «шума». Потому лучше для нее продумать отдельную семантику.
Влияют ли социальные взаимодействия: Like, +1 на вес страницы?
Тут нет однозначного ответа. Каждый аналитик будет говорить что-то свое. Я думаю, что влияет. Но есть множество моментов.
Вычислить накрутки можно, особенно в Твиттере и Фейсбуке. Это вычисляется как внутренними алгоритмами сети, так и внешними поисковых систем. Поэтому просто наставить лайков и получить вес не получится.
Но социальное взаимодействие очень хорошо влияет на индексируемость страниц. Тут можно играться. Вообще я за параллельное продвижение в SEO и какими-то социальными активностями, это будет только плюс.
Отношение к накрутке поведенческих факторов
Это вычисляется с точки зрения алгоритмов. Отсечь настоящие поведенческие и накрученные очень просто.
Важна ли тематика при покупке старого домена? Или лучше купить новый?
Лучше купить новый. Возраст очень сложно передать при покупке. И данные whois учитываются при подсчете возраста. Возраст сайта оценивается не только привычным для нас параметром «количество лет». Например, Google уже может знать поведенческие для данного сайта, что на нем было и так далее. Поэтому нельзя говорить, что старый домен лучше. В большинстве случаев при продаже он просто обнулит свой вес.
Возраст сайта в Google не проверить никак. В Яндексе кажется можно узнать дату первой индексации.
Видео-запись вебинара представлена ниже.
Олег готов ответить также на ваши вопросы. Задавайте их в комментариях до понедельника 18 нояб. включительно.
52 ответа (оставить свой)
Олег, какими скриптами для внутренней перелинковки вы пользуетесь? Только вашим внутренним (троцкий, эсли я не ошибаюсь?!). Используете htracer либо колдунщик?
Спасибо за статью!
Отличное, толковое, ЧЕЛОВЕЧЕСКОЕ интервью. Спасибо.
Вопрос. На нашем сайте объявлений мы “запартнёрились” с сайтом каталога товаров. Смысл – к объявлениям показывать похожие товары у нас на сайте, а на сайте-партнёре к товарам показывать похожие объявления.
В результате такого партнёрства у нас на сайте появился большой раздел товаров (с описаниями, фото идр. информацией) полностью повторяющий каталог сайта-партнёра. Пока мы свой раздел закрыли “noindex”, но хотим его открыть.
“Поймут”-ли SE, что это не украденный контент, а контент предоставленный сайтом-партнёром? И как лучше быть может автоматизировать уникальность(?) такого контента. И можно ли? И нужно ли?
Практикуете ли вы прокачку доноров? Например, разместить на стороннем ресурсе статью с ссылкой на продвигаемый сайт и продвинуть её в топ 10 по парочке нч-сч запросов. В результате получим ссылку из статьи из топа + некоторый трафик по этой ссылке. Как думаете, такая игра стоит свеч?
Есть много способов повлиять на скорость индексации и переиндексации страниц сайта, но какой будет самым действенным? До недавнего времени лучше всего помогали G+ и твиты, но сейчас их влияние на скорость индексации несколько снизилось.
Скажите, есть ли будущее у продвижения сайта через блогосервисы. Слишком разрозненая инфа по интернету.
Расскажите больше про сбор семантики. Какие процессы и как вы автоматизировали? Какие источники используете при сборе?
Эти алгоритмы от гугла всегда будут темными лошадками
Алгоритмы гугла хотя и будут темными лошадками, но найдутся люди, которые смогут пролить свет на использовании их в своих целях..
Таблички помогает при заполнении карточек товара.
Надо было назвать статью: “Тут сложно дать однозначный ответ” или “Тут нет однозначного ответа”!)))
Елки-палки, пока к этому всему пристреляешься уже и не к чему будет. Все-таки писать контент надо в первую очередь для людей!
Контент, конечно, для людей нужно писать – это без сомнения. Но, в современном интернет-бизнесе нужно чтоб его еще и заметили, и чем быстрей и больше людей его заметят, тем успешней будет бизнес. Поэтому специалисты и пытаются узнать и изучить правила “игры” и подстроиться под них.
Представляете сколько может и готова заплатить специалистам компания, торгующая, например, бытовой техникой, чтобы быть в топе поисковой выдачи по названиям товаров, который они продают?
Интересная информация, с удовольствием прочитал.
Обычно интервью берут, когда хотят порекомендовать инфопродукт, а тут просто полезная информация, спасибо.
Здравствуйте, Олег.
«Используем обратные коллокации — то, что нельзя писать.»
Каким-то образом получить/купить/добыть сей священный манускрипт возможно?
Олег ответьте пожалуйста на такие вопросы:
-на сегодняшний день есть ли смысл от дора, который ссылается на главный сайт?
-почему так сложно набрать PR сайта , в отличии от ТИЦ?
У меня тоже вопрос: – вот говорят, что дубли страниц – это не есть хорошо. Однако к сожалению, полностью исключить дублирование очень сложно и не всегда получается. Но все же, дублированный контент в действительности может как-то пагубно повлиять на ресурс или нет. – среди популярных сайтов часто встречаются те, у которых всего 1% основного контента, а остальные 99% дубли. А какого процента основного контента стоит придерживаться? Или все же не стоит сильно обращать на это внимание?
хорошая статья
Полезная статья! Присоединяюсь к вопросу Сергея!
Скажите, есть ли будущее у продвижения сайта через блогосервисы?Слишком много разной информации в интернете!
Тут не затрагивался один интересующий меня вопрос. Не знаю сюда или не сюда его задавать но всё же: пишу тексты-описания для своего интернет-магазина: бады и лечебное питание. Текст пишу уникальный (настоящий копирайт на основе нескольких источников и собственных выводов). Но конечно же при проверке текста на уникальность получается всё равно на каких-то “заезженных фразах” теряется 1-2%, а иногда и 3%. Стоит ли на это сильно обращать внимание? Или всё же если текст написан хорошо и для людей, то на подобные вещи не стоит обращать внимания?
Отличное интервью!
Олег Саламаха, большое спасибо за подробные ответы на вопросы, “заданные в комментариях до понедельника 18 нояб. включительно.”
>> Олег, какими скриптами для внутренней перелинковки вы пользуетесь?
Мы пробовали много разных скриптов, но пришли к выводу, что нет ничего лучшего, чем использовать собственные наработки. Htracer и колдунщик — по-своему хороши. Лично мне в Htracer нравится функция “отлова ботов”. В любом случае, то, каким скриптом вы решили пользоваться, не имеет особого значения: главное — семантика и расчет веса.
>> Вопрос. На нашем сайте объявлений мы “запартнёрились” с сайтом каталога товаров. Смысл – к объявлениям показывать похожие товары у нас на сайте, а на сайте-партнёре к товарам показывать похожие объявления.
Я не совсем понимаю, чего вы хотите достичь тем, что откроете для индексации объявления. Это ведь не ваш релевантный контент. Я бы оставил их закрытыми в noindex. При открытии могут последовать санкции.
>> В результате получим ссылку из статьи из топа + некоторый трафик по этой ссылке. Как думаете, такая игра стоит свеч?
Это эффективно, но требует соблюдения многих условий: статья должна быть оптимизирована под получение трафа, площадка должна быть очень хорошей и т.д. Но нужно помнить, что это скорее долгосрочная стратегия и бюджет мероприятия достаточно высок.
Есть много способов повлиять на скорость индексации. До недавнего времени лучше всего помогали G+ и твиты.
Они по-прежнему хорошо влияют, просто поисковые системы начали учитывать заспамленность аккаунта.
>> Скажите, есть ли будущее у продвижения сайта через блогосервисы. Слишком разрозненая инфа по интернету.
Если речь идет о спаме в комментариях, то нет ни будущего, ни настоящего. Если речь о создание сателлитов в блогосфере — лучше потратьте эти же ресурсы на улучшение своего сайта.
>> Расскажите больше про сбор семантики. Какие процессы и как вы автоматизировали? Какие источники используете при сборе?
У нас многие процессы по сбору и кластеризации семантики автоматизированы. Используем в основном собственные базы, которые были получены из подсказок и сервисов поисковых систем. В сумме это более 100 млн фраз.
>> Каким-то образом получить/купить/добыть сей священный манускрипт возможно?
Увы, никаким. Эта информация под NDA. Я привел пример того, как можно работать с текстами и что там автоматизировать.
>> -на сегодняшний день есть ли смысл от дора, который ссылается на главный сайт?
>> -почему так сложно набрать PR сайта , в отличии от ТИЦ?
От дора точно нет смысла. PR — логарифмический показатель, а ТИЦ — линейный.
>> А какого процента основного контента стоит придерживаться? Или все же не стоит сильно обращать на это внимание?
Нет какого-то четкого понимания процента дублей. Я рекомендую смотреть со стороны пользователя. Если у вас есть категория “холодильники” и категория “белые холодильники” — у них, скорее всего, будут пересекаться много товаров. Но и первая и вторая страница отвечают на четкие запросы пользователей, поэтому тут можно пренебречь дублями (хотя как минимум мета-теги должны быть разными). Если же вы говорите про полные дубликаты — то да, от них стоит избавляться.
>> Но конечно же при проверке текста на уникальность получается всё равно на каких-то “заезженных фразах” теряется 1-2%, а иногда и 3%. Стоит ли на это сильно обращать внимание? Или всё же если текст написан хорошо и для людей, то на подобные вещи не стоит обращать внимания?
Если вы уверены в источнике текста, не обращайте внимание на уникальность, которую показывают сервисы.
Спасибо за интересную статью! В продвижении я = новичок, поэтому будет, о чём подумать:)
Офигеть, век живи, век учись и так далее… Много интересного для себя почерпнул, спасибо автору и комментаторам.
Согласен с выводами, действительно так должно лучше работать!!!
Олег недавно был в Болгарии и выступил с большой лекцией там Оптимизация Яндекс семинара новые правила SEO. Помимо того, что хороший профессионал, он очень вежливый и позитивный человек. Действительно один из крупнейших в мире специалистов SEO.
надо статью переименовать в “фиг его знает”))))0
Иными словами все нужно делать в норму, делать внутреннюю перелинковку или делать внешние ссылки. При этом делать желательно эти действия одновременно.
Интересная статья. Считаю, что внутренняя перелинковка конечно нужна, но как и во внешней раскрутке, тут нужна умеренность. И еще, при покупке внешних ссылок нужны обязательно разнообразные анкоры.
Так как покупка одинаковых анкоров не нравится поисковым системам.
Отличная информация! Мой вопрос. Не так давно для подбора семантического ядра мы применяли операторы, что бы подобрать слова в точном вхождении. Последнее время о их применении нигде не идет речь. Так что, теперь мы просто подбираем слова, без точного вхождения? Теперь задача набирать ядро целевое, то есть четкой направленности… Я лично так поняла…
> “Например, есть запрос «Samsung Galaxy 3». Если вы зайдете в Google и посмотрите выдачу по данному запросу, то увидите очень много информационных сайтов и почти не увидите коммерческих. Что это означает? Что Google посчитал этот запрос информационным и тратить на него деньги нет смысла. И если при этом у вас есть интернет-магазин, который продвигается по данному запросу, то все эти деньги, которые вы выкинули на эту фразу, просто выкинуты в никуда. И таких запросов достаточно много.”
Конечно. Потому что запрос “самсунг гэлэкси” – это информационный запрос, в том время, как запрос “купить самсунг гэлэкси” – коммерческий, по которому выдача полностью коммерческая. Вы действительно верите, что пользователь настолько недалёк, что не додумается вбить “купить” если он хочет что-то купить?
там у него написано про то, что типа влияет ли +1 на вес страницы… я сразу скажу что не влияет) а вот на поведенческие влияет!
Не подскажете, как на wordpress реализовать тег rel=“canonical” при постраничной навигации (с page 2,3,4… canonical на page 1)
Привет. Вы не подскажите как наростить pr сайта с помощью внутренней перелинковки. Заранее большее спасибо.
Статья для сеошников которые делают под заказ продвижение и размещают статьи через биржи. По своему опыту знаю что когда разместишь 20 уникальных статей с 2-3 ключами высокочастотниками,на хороших( не биржевых) ресурсах с живым трафиком – то низкочастотники сами подхватятся. Конечно если релевантность своего сайта позволяет.
Спасибо! Статья вышла от одного к другому, в принципе все взаимосвязано я считаю. Влияют все факторы, какие-то просто больше, какие меньше, а какие не значимые. А есть ли смысл искать этот баланс? Когда вместо этого можно писать для людей, и люди сами придут на интересный для них материал.
Спасибо за статью! К сожалению, наши запросы должны быть и информационные и коммерческие – повезло тем у кого аудитория более прогрессивная. Возраст наших потенциальных клиентов до 85 лет приблизительно. Часть клиентов, конечно, зададут коммерческие запросы, а вот тестирование (нами) клиентов после 65 лет показало, что они задают именно информационные запросы и высоко-частотные.
Хорошая статья. Много интересного познал для себя. Правда, тут надо учитывать много факторов: тематику, в каких регионах и т.д. Но я все равно за один домен.
Очень поучительная и полезная статья!
Перелиновку статей выполняю ручками, так мне кажется надежнее
Один я, что ли, обратил внимание, что про robots.txt написан полный бред? Достаточно просто перейти по указанной там же ссылке, чтобы в этом убедиться. Странная какая-то расшифровка “ребят из академии”…
Дмитрий, о каком бреде вы говорите? Всё правильно они говорят о роботсе, гугл кушает страницы, запрещённые в нём только так, но откидывает в дополнительный индекс с пометкой – запрещено в роботсе. Но в проиндексированных страницах они всё таки значатся.
Практикуете ли вы прокачку доноров?
Вот читаешь статьи различных аналитиков, “SEO-шников” и прочих-прочих, хоть бы где НЕ встретить совет вроде этого “Если же он просто будет отвечать на вопросы — по моему это гораздо лучше.”! Все так любят советовать отвечать на вопросы пользователей, что сами не замечают, как повторяют давно заученные всеми принципы. Это не советы, это самая настоящая «вода», благодаря которой тысячи людей называют себя копирайтерами.
Большое спасибо за такое интересное интервью. Сейчас как раз занимаюсь раскруткой интернет магазина и ваши советы – очень кстати
Отличное интервью.
Спасибо, очень интересно. Особенно люблю читать про “тошнотность”. Из-за заспамленности ключевыми фразами текст действительно становится не читаемым. Но что же делать? Один из моих сайтов вообще не крутится вокруг ключевиков и рейтинг у сайта нулевой. Но поведенческие факторы очень хорошие.
Да уж. Вопросы и ответы часто повторяются. И не стоит забывать что SEO не должно ухудшать удобство сайта.
Здравствуйте, Олег! Недавно слежу за вашим блогом, и хотелось бы получить от Вас ответ на такой вопрос: как правильно, грамотно писать статьи для сайта? Как завлечь гостя, сделать так, чтоб материал был интересен всем? Возможно стоит писать просто, и лаконично, или лучше, описывать все полностью, с мельчайшими подробностями? Спасибо!!!!
Здравствуйте Олег! Подскажите, пожалуйста, сколько нужно ссылок, чтобы быть #1 в нише или хоть в топ 10? Как определить какое количество ссылок нужно для сайта?