8,176 просмотров

Каждую неделю на канале Google Webmaster Help Мэтт Каттс публикует видео с ответами на вопросы вебмастеров. Возможно, некоторые из них вы уже видели, но полезно будет посмотреть ещё раз. Ниже представлены 10 из последних опубликованных видео-ответов Google.

Сколько ссылок на странице допустимо? Есть ли какой-то лимит?

Когда-то GoogleBot и наша система индексации обрезала все до 100 или 101 кб, и все остальное не попадало в индекс. Мы подумали, что примерно 1 ссылка на килобайт это нормально, поэтому рекомендовали использовать не более 100 ссылок на странице. Это были наши технические рекомендации. Но многие вебмастера решили, что если у них будет 102 ссылки, то мы их будем считать как спам и примем действия.

Однако, веб постоянно развивается. В частности, веб-страницы стали намного больше и могут иметь больше ссылок. Поэтому, мы удалили прошлые рекомендации и теперь говорим лишь — “используйте оправданное количество ссылок”. Конечно же есть лимит на размер файла, который индексируется сейчас, но он намного больше, поэтому, мы можем обработать намного больше ссылок.

Но нужно иметь в виду, что внутренний вес распределяется по каждой исходящей со страницы ссылке. Поэтому, если у вас 100 ссылок, каждая из них получит 1/100 веса, если у вас 1000, каждая из них получит 1/1000 веса. Если у вас огромное число ссылок, внутренний вес, перетекающий на каждую ссылку станет очень-очень маленьким. Также, тонны ссылок могут раздражать пользователей или могут показаться спамными. Сработает антиспам-алгоритм, если мы увидим множество очень похожих на спам ссылок.

В целом, сейчас вполне нормально иметь 200, 300 или 400 ссылок на странице, если страница очень большая, имеет добавочную ценность, имеет значительное количество чего-то значительного… Короткий ответ: не стоит заморачиваться на этом, не ограничивайте себя именно 100 ссылками, но привлеките обычных пользователей и проведите тест, не выглядят ли ваши ссылки странными или спамными.

Влияет ли Твиттер и Facebook на поиск в Google?

Страницы на фейсбуке или в твиттере воспринимаются нами как любые другие страницы в нашем индексе. Поэтому, если какие-то страницы из социальных сетей доступны для индексации, мы будем их показывать в результатах поиска. При этом, мы не используем для ранжирования в органическом поиске такие данные, как количество фоловеров в твиттере или друзей на фейсбуке. У нас был опыт, когда нам заблокировали доступ где-то на полтора месяца. Поэтому, мы отказались пытаться извлекать подобные данные для страниц, где нас могут блокировать. Не думайте, что если у вас есть какие-то данные в соцсетях, они доступны поисковой системе.

Используется ли для разных позиций в Google разные алгоритмы?

Использует ли гугл один и тот же алгоритм для результатов на первой странице? Или это разные алгоритмы (например, для 1-3 позиции важна свежесть, для 4-6 важны ссылки, а для 7-10 результатов влияют социальные сигналы)?

Для ранжирования всех результатов используется один и тот же алгоритм. Сначала мы ищем все подходящие документы (их может быть сотни или тысячи), потом сортируем эти документы, учитывая их релевантность и популярность. То есть, мы хотим в ТОПе видеть максимально релевантные документы и в то же время как можно более авторитетные. 9-ая позиция не закреплена за сайтами с обратными ссылками или социальными сигналами. Весь список формируется в результате работы одного и того же алгоритма.

Как работать с частичными дублями на сайте?

Если бы вам пришлось работать с частичными дублями контента на новостном сайте (например, публикация новости по двум разным адресам в течение дня), что бы вы сделали, чтобы избежать фильтра за дублированный контент?

Надеюсь, речь идет о белом качественном новостном сайте, и у вас присутствуют дубли, которые вы на самом деле не хотели бы иметь. Для решения проблемы вы можете использовать тег rel=canonical. При наличии множества копий короткой истории, вы делите внутренний вес между этими историями/новостями, и если они практически дублируются, я бы использовал rel=canonical и указал один главный URL. Если вы это сделаете, и при этом не будете иметь множество дублей по сайту, то можете не беспокоиться о фильтрах.

Нужно ли использовать разные IP-адреса для сайтов, ориентированных на разные страны?

В идеальном мире было бы здорово иметь отдельный IP-адрес для .co, co.uk, .com, .fr, .de и других доменов и размещать один сайт в Великобритании, другой во Франции, а третий в Германии :) Но на самом деле, чтобы различать ваши сайты, нам достаточно того, что у вас меняется доменная зона. Совсем не страшно, если вы все свои сайты разместите на одном IP-адресе. Доменная зона для нас сильный индикатор, к какой стране принадлежит сайт.

Как сайту выйти из-под фильтра за спамные ссылки?

Продажу или покупку ссылок, которые передают PageRank, Google воспринимает как нарушение правил. Если это повторяется множество раз, санкции могут быть жестче. То есть, мы ужесточаем действия при повторении нарушений.

Поэтому, если вы, к примеру, покупали ссылки с середины 2012 до конца марта 2013, то отклонить каждую ссылку за этот период будет героическим событием. Если у сайта долгое время были хорошие ссылки, а потом кто-то дал вам плохой совет и несколько месяцев вы занимались ерундой, покупая ссылки, то чтобы оставаться в безопасности, отклоните все ссылки за этот период. Если в заявке на перепросмотр мы увидим такое радикальное действие с вашей стороны, то скажем, что люди очень серьезно относятся к своему сайту. Но, конечно же, я не рекомендую всем отклонять ссылки подобным образом.

Обычно мы наблюдаем в запросе на перепросмотр, что люди отклоняют несколько ссылок с сайта. Хорошая заявка на перепросмотр часто содержит отклонение всех ссылок с конкретного домена (используется оператор “domain:”) и содержит большое количество доменов, имеющих плохие ссылки.

Нормально ли использовать небольшие порции контента с других сайтов?

“Может ли сайт чувствовать себя хорошо в Google, если копирует лишь часть контента с других сайтов и на основе этого создает собственную статью? Предположим я упомяну источники этого контента в статье.”

Боюсь вас разочаровать… К примеру, Yahoo очень не любит подобную технику, называя это ститчингом (stitching, по англ. сшивка). Если вы взяли 2-3 предложения из одной статьи, 2-3 из другой и 2-3 из третьей, они это рассматривают как спам. Если ваша задача лишь расставлять кавычки между этими предложениями, то здесь нет добавочной ценности.

Важный вопрос здесь: делается ли это на автомате? Зачем вы это делаете? Люди не любят смотреть только клипы на ТВ, они любят разный контент.

Можно собирать контент из разных источников и генерировать что-то очень классное. Например, Википедия, содержит информацию по определенному вопросу и снизу ссылки на источники, но они не копируют текст с этих источников, а синтезируют в новый контент, поэтому, людям нравится Википедия. Поэтому, если у вас что-то похожее, то не стоит беспокоиться. Но если вы лишь копируете куски текста и публикуете у себя без добавочной ценности, то вы находитесь в зоне риска и я бы рекомендовал избегать этого, если возможно.

Все ли ссылки из комментариев считаются спамом?

Если кто-то опубликовал статью о преступниках в SEO, а я не согласен и оставляю комментарий с ссылкой на другое мнение, при этом использую своё имя и часто ссылаюсь на свой блог, чем на блог Google или какой-то другой сайт, так как я представляю себя,.. многие люди так поступают и это вполне нормально. При этом, лучше оставлять своё имя, чтобы люди понимали, с кем имеют дело, вместо “дешевые учебники” или “копии часов”.

Также стоит отметить, что если все ваши ссылки идут из комментариев и никто из людей больше не ссылается на ваш сайт, это может рассматриваться как манипуляция ссылками и может привести к санкциям. Но если вы оставляете обычные комментарии, но не делаете это в алгоритме “оставить какое-то количество комментариев в день”, то вам не о чем беспокоиться.

Нужно ли для каждой страницы иметь уникальное мета-описание?

Если у вас есть дублированные meta-descriptions, то в панели для вебмастеров Google вы заметите уведомления, мы рекомендуем избегать этого. Возможно, не стоит тратить много времени, чтобы составлять уникальные мета-описания для каждой страницы, например, когда я веду блог, я не забочусь об этом. Но если речь о важных страницах, таких как главная или которые дают большой ROI (например, определенные товары) или вы заметили в результатах поиска, что некоторые страницы сайта содержат очень плохие автоматически сгенерированные сниппеты, сделайте уникальный и красивый мета-дескрипшн. И лучше отсутствие мета-описаний, чем одинаковые для всех страниц.

Нужно ли использовать инструмент отклонения ссылок, если вебмастер уверен, что к сайту не было применено санкций?

Основная цель инструмента Disavow Tool — почистить результаты работы, если если вы используете плохое SEO или наняли плохого сеошника. Вы должны сделать все возможное, чтобы удалить эти ссылки из сети, но некоторые люди не отвечают или по каким-либо другим причинам вы не можете удалить все ссылки, в этом случае стоит использовать инструмент Disavow.

С другой стороны, если вы беспокоитесь о том, что кто-то использует против вас плохое SEO или какой-то бот генерирует кучу ссылок на ваш сайт и вы не можете понять, откуда он вообще взялся, здесь тоже будет уместно использовать Disavow Tool. Нет ничего плохого в том, чтобы отклонить плохие ссылки, даже если вы не получали сообщение в панели для вебмастеров. Поэтому, если вы не можете заснуть с мыслью, что Google увидит плохие ссылки и наложит санкции на ваш сайт, можно спокойно использовать инструмент отклонения ссылок.

  • 0 Нет
  • 44 Да
  • Мне понравилось!

Если вам понравилась статья, вы можете подписаться на RSS или E-mail рассылку. Для получения обновлений по электронной почте, введите ваш e-mail адрес в эту форму (Доставка от FeedBurner):