Время чтения: 3 минуты

Джон Мюллер про частоту публикации на сайте и дублированный контент

Сотрудник компании Google рассказывает про дубли и частоту публикаций.

На прошлой неделе Джон Мюллер, являющийся постоянным спикером «Корпорации добра», порадовал вебмастеров сразу двумя «откровениями». Сначала он заявил, что частота обновления контента на сайте вообще не влияет на ранжирование в Google. Затем удивил сеошников сообщением, что поисковые роботы могут определить дублированный контент не просматривая страницу, ориентируясь только на косвенные признаки.

Алгоритмы ранжирования компании Google не дают преференций интернет-ресурсам, которые регулярно, с завидной частотой, добавляют новый контент. При этом не важно, какое количество свежей информации появляется на сайте ежедневно и существует ли определенный график публикаций. Такой вывод легко сделать на основании ответа Джона Мюллера на твитт пользователя по имени Vlad Rappoport.

Джон Мюллер отвечает на вопрос вебмастера.

Влияние частоты публикации контента на ранжирование в Google – ответ представителя поисковой системы.

Вопрос Влада состоит в следующем: «Учитывают ли алгоритмы Google частоту/объем/график публикации нового контента? Будет ли от поисковика реакция, если сначала на сайте появляется до 5 новых страниц, а потом их становится всего 2-3?».

Джон Мюллер ответил достаточно лаконично: «Нет. Ведь сайт это не машина, которая выдает свой контент с фиксированной скоростью».

Вторая интересная новость прозвучала во время традиционной видеоконференции для вебмастеров. Во время онлайн-встречи, один из слушателей спросил, будут ли алгоритмы поисковой системы оценивать французскую версию страницы в качестве дубликата английской. На что получил довольно-таки интересный ответ.

Оказывается, краулеры Google способны определять дубли по косвенным признакам. Например, по одинаковым или сильно похожим параметрам URL. В этом случае роботы поисковой системы действуют проактивно и не стараются изучить все содержимое страницы. Пробежав «по вершкам» и сравнив параметры, они записывают страницу в число дублей.

При этом не исключены случаи, когда роботы Google ошибаются, записывая в число дублеров страницы с полностью уникальным содержимым. Именно поэтому Джон Мюллер настоятельно рекомендует всем вебмастерам отнестись внимательно к настройкам и проверить, по какому принципу генерируются параметры URL’ов.

Отметим, что алгоритмы «Корпорации добра» не накладывают санкции на интернет-ресурсы, при нахождении дублированного контента в разных форматах. Об этом еще два года назад рассказал другой сотрудник компании Гэри Илш.

 

Оцените статью:
Понравилась 0
Не понравилась 0
Автор: Ольга Фомина

Постоянно совершенствоваться в профессии, расти и развиваться. Расти в первую очередь над собой, ибо ни люди, ни обстоятельства не могут нанести автору столько вреда, сколько его самомнение и нежелание учится. Любая остановка — падение вниз. Поэтому только вперед, наперекор всему, что мешает двигаться и покорять новые вершины.

Нам интересно ваше мнение, напишите комментарий:

Нажимая на кнопку «Отправить», я даю согласие на обработку персональных данных в соответствии с «Политикой конфиденциальности».

Обмен мнениями и отзывы о публикации
Подпишитесь на рассылку блог-оптимизатора.рф

Уже подписались 800 человек