Время чтения: 6 минут

Оценка качества контента в Google. Анализ западных экспертов и реалии 2017 года.

Как алгоритмы Googleопределяют качество информации в 2017 году.

Один из руководителей американской консалтинговой компании Stone Temple Consulting Eric Enge попытался разобраться, по каким критериям поисковые роботы Google оценивают качество контента на странице. В своей статье он систематизировал имеющуюся информацию и высказал несколько собственных мыслей.

Вступление

Компания Google неоднократно заявляла, что собирается бороться за качество контента на интернет-ресурсах. Делается это в интересах пользователей, которые обращаются к поиску и хотят получить хорошую и достоверную информацию.

Оценить страницу на предмет ее качества можно по-разному. И наверняка алгоритмы Google при анализе веб-страницы опираются на достаточно большое количество критериев, используют разные сигналы.

Точная формула, по которой определяется «плохой» контент неизвестна. Но анализируя официальные анонсы и сообщения компании Google, а также отдельных ее представителей, можно выделить те факторы и сигналы, которые однозначно влияют на ранжирование страниц по параметру «качество контента».

«Панда»

Алгоритм, запущенный в феврале 2011 года, перевернул понимание того, как должна работать поисковая оптимизация. Его прямое предназначение – борьба с мусорным и низкокачественным контентом.

После запуска алгоритм заметно очистил выдачу от сайтов с малосодержательным или «украденным» контентом. В топе выдачи практически перестали появляться интернет-ресурсы, которые не предлагали пользователям собственную оригинальную информацию.

Со временем алгоритм заметно изменился и много чему научился. А спустя пять лет, в начале 2016 года, программный код Панды был добавлен в основной алгоритм ранжирования Google.

Когда сеошники говорят об оценке качества страниц в поисковой системе Google, они однозначно вспоминают Панду.

Асессоры

Ручная проверка и анализ интернет-ресурсов играют для крупнейшего поисковика планеты огромную роль. Именно оценка асессоров лежит в основе машинного обучения. Их используют при запуске серьезных обновлений, для предварительного анализа эффективности новых алгоритмов. Инженеры и разработчики обязательно опираются на данные, представленные командой асессоров.

В 2001 году обычные пользователи интернета впервые смогли ознакомиться с инструкциями для асессоров. Сейчас трудно сказать, это была незапланированная утечка информации или грамотный ход команды поисковика.

В любом случае, с 2015 года руководство для асессоров находится в открытом доступе. Все желающие могут прочитать, как функционирует система ручной проверки в Google.

Ключевые слова и «ванильный» контент

На заре развития поисковой оптимизации, когда алгоритмы Google были слабыми и беспомощными, большинство сеошников действовали по принципу – наполни текст огромным количеством ключевых слов, и он станет лидером выдачи.

Со временем роботы научились определять переоптимизированные тексты, и продвигаться в топ подобным образом стало невозможно. Тогда появился такой термин как «плотность ключевых слов». Это когда считают, сколько раз ключевая фраза встречается в тексте, и делят на общее количество слов.

В 2017 году алгоритмы значительно сложнее и данные тактики не работают. Более того, представители Google неоднократно заявляли, что целенаправленная работа с ключевыми словами – это деятельность, направленная на манипулирование поисковой выдачей. Это признак контента низкого качества и сигнал к понижению позиций страницы в выдаче.

«Ванильный контент» — интересный термин, который обозначает информацию, не несущую ничего нового относительно той, что уже есть в сети интернет. Никакой новизны, полезности, оригинальности. В среде русскоговорящих оптимизаторов такой контент принято называть «копипаста».

Google однозначно накладывает фильтры на такой вид страниц, и избавиться от проблем с ранжированием можно только добавив новую экспертную точку зрения или свежие мнения пользователей.

Реклама и оскорбительный контент

Начиная с 2012 года, Google встал на путь активной борьбы с сайтами перегруженными рекламой. В компании посчитали, что удобство пользователя не должно игнорироваться. И даже если на странице хватает полезной информации, количество рекламы должно оставаться в рамках приличий.

В первую очередь пострадали сайты, которые не показывали основной контент на первом экране страницы. Чуть позже началась борьба с всплывающими окнами.

Сейчас за данный аспект отвечает алгоритм PageLayout, который на основе собственных критериев определяет, не превышает ли количество рекламы разумные пределы.

С конца 2016 года началась активная борьба с недостоверным и оскорбительным контентом. Этому предшествовало несколько серьезных скандалов, затронувших пользователей в США. Представители Google обещали разобраться с данной проблемой в кратчайшие сроки.

Скорость загрузки

Как только в компании Google заговорили об удобстве пользователей, сразу же к факторам ранжирования прибавилась скорость загрузки страниц. С весны 2010 года сайты, работающие совсем медленно, начали терять свои позиции в органической выдаче.

При этом ситуация у данных интернет-ресурсов усугубляется еще и тем, что растет число отказов, которое также негативно влияет на ранжирование сайта.

Потребность в скорости стала еще более ощутимой с бурным развитием мобильного поиска. Уже сейчас представители Google рекомендуют вебмастерам стремиться к тому, чтобы время загрузки любого документа на мобильных устройствах находилось в пределах 3 секунд.

Для десктопных версий документов скорость загрузки остается слабым сигналом ранжирования, но нужно помнить, что она косвенно влияет на сайт через отказы и негативный опыт пользователей.

Действия пользователей

В 2015 году компания Google запустила алгоритм RankBrain, который представляет собой систему искусственного интеллекта, реагирующую на действия пользователей. Программа теперь не просто ищет ответ, а пытается понять смысл запроса пользователя.

Алгоритм оценивает намерения и желания, формирует для человека выдачу и анализирует его дальнейшее поведение. В зависимости от действий пользователя, одни сайты получают положительный импульс, а другие теряют свои позиции в выдаче.

Соответственно, если представленный контент или страница целиком слабо заинтересовала пользователя (он быстро покинул ресурс и продолжил поиск информации) новый алгоритм примет это во внимание и будет использовать в ранжировании.

«Читабельность» страницы

Анализ документа и оценка сложности текста для восприятия выполняется с помощью теста Флеша-Кинкейда. Так называемый индекс удобочитаемости позволяет определить, насколько данный текст сложен для людей.

Сейчас нет точных данных о том, используют в компании Google подобные тесты или нет. Но данный фактор опять же может влиять на ранжирование косвенно, через процент отказов. Потому что если аудитории сайта трудно понять написанное, она будет искать информацию в другом месте.

Оцените статью:
Понравилась 0
Не понравилась 0
Автор: Ольга Фомина

Постоянно совершенствоваться в профессии, расти и развиваться. Расти в первую очередь над собой, ибо ни люди, ни обстоятельства не могут нанести автору столько вреда, сколько его самомнение и нежелание учится. Любая остановка — падение вниз. Поэтому только вперед, наперекор всему, что мешает двигаться и покорять новые вершины.

Нам интересно ваше мнение, напишите комментарий:

Нажимая на кнопку «Отправить», я даю согласие на обработку персональных данных в соответствии с «Политикой конфиденциальности».

Обмен мнениями и отзывы о публикации
Подпишитесь на рассылку блог-оптимизатора.рф

Уже подписались 801 человек