Что нужно знать об алгоритме Google Fred. Как он изменился до осени 2017? | topinup.pro - 2018

Что нужно знать об алгоритме Google Fred. Как он изменился до осени 2017?

Что нужно знать об алгоритме Google Fred. Как он изменился до осени 2017?

В последние пару недель в очередной раз произошла серьезная тряска выдачи Google. SEO-форумы, что в Рунете, что в англоязычном сегменте, наполнились сообщениями вебмастеров о резко снизился, трафика.

Шторм зафиксировали и анализаторы выдачи:

Попробуем разобраться в ситуации и понять, как жить дальше.

Тряска в сентябре — новые выходки Google Fred?

в обсуждениях часто всплывает мысль, что свежие изменения — это продолжение линии Google Fred, то есть апдейтов в марте и феврале этого года. Вообще-то проводить параллели преждевременно. С другой стороны, понять, остались неизменными или подходы Fred-а к ранжированию — весьма полезно.

Главные выводы моего весеннего исследования этого апдейта Google изложенные в презентации для SEMPRO (см. Также статью с некоторыми дополнительными замечаниями и обсуждением). Обязанности & # 39; обязательно посмотрите слайды — они понадобятся для понимания.

[googleapps domain=»docs» dir=»presentation/d/e/2PACX-1vRpBF-nV4lXf8btKLdndWyqKg0b187ug7x12HTABsEvfcwSMTRNdf1vvlsDY2R8TwHRItDzfAAVHHh7/embed» query=»start=false&loop=false&delayms=5000″ width=»700″ height=»436″ /] Основной рабочий критерий, определяющий, подружится ли сайт с Fred-м — это соотношение «хорошие» / "плохие" страницы. Сайты, где много недостаточно качественных страниц, могут попадать под санкции. Особенно важно, что Фред проявляет себя как хостовой фильтр. Проще говоря, «за компанию» с некачественными идут вниз и достойные документы. Этот вывод, кстати, с момента моего выступления успел получить официальное подтверждение.

John Mueller, одна из главных говорящих голов в Google, заявил 11 сентября:

From our point of view, our quality algorithms do look at the website overall, so they do look at everything that & # 39; s indexed. And if we see that the bulk of the indexed content is actually lower quality content then we might say & # 39; well, maybe this site overall is kind of lower quality.

Вольный перевод:

Читайте также:   Фактор текстовой релевантности YMW: что не потерять оптимизацию под длинный хвост ключей

Наши алгоритмы действительно изучают весь сайт, все проиндексированные страницы. Если мы видим много проиндексированного контента плохого качества, мы считаем, что весь сайт тоже так себе.

В общем-то все очевидно, но есть один нюанс. Что такое «страница низкого качества»? Во время выступления я немного потроллить аудиторию. На 25-м слайде спросил зал — «правильно?» И получил в ответ кивки и неуверенное «дааа». А потом показал следующий слайд (и правильный ответ на 32-м).

Возвращаемся с марта в октябрь. Можно ли считать выводы по-прежнему актуальны? Это не так сложно проверить. Достаточно поднять старую выборку (благо, она достаточно большая — и не лень же мне тогда было ее составлять! ..). Ситуация на тех проектах, мало изменились, покажет нам, изменился ли Fred. Но сначала хочу рассказать об одном показательный кейсе.

Кейс: несоответствие трафика, количества точек входа и страниц в поиске

Еще до того, как я взялся за изучение новых тенденций, мне попалась интересная ситуация на сайте клиента.

вот скриншот с Search Console:

А вот с Метрики:

А вот наконец с моего сервиса https://bez-bubna.com/

Несоответствие!

Число страниц в индексе сильно возросла. А число страниц, приносят трафик и общий объем визитов с Google — явно снизились. Чаще всего эти показатели сильно коррелируют. Больше страниц — больше точек входа — более визитов (просто, понятно, логично). То есть этот пример — живой аргумент в пользу версии, которую я изложил выше.

Почему остановился на этом кейсе так подробно? Потому что с этого сайта я максимум возможной информации (в отличие от большей части из 116 проектов в начальной выборке) и могу исключить другие факторы. Такой вот свежий наглядный пример.

Читайте также:   Новый SEO-инструмент: анализ внешних ссылок. 7 важных отчетов

Ну а теперь к главному.

Как сейчас ранжируются сайты, нарушены Fred году в марте и феврале?

Для тех проектов, не смогли улучшить контент или не стали изменять настройки индексации практически ничего не изменилось . Просели не восстановили трафик до сих пор. Удивительные примеры отличного ранжирования не самых качественных проектов также остались. Исключения есть, но достаточно редки. Вот интересный случай — интернет-магазин большим количеством «пустых» страниц (30 слайд в презентации):

Другой пример — сайт-каталог с огромным количеством страниц, с прямо-таки классической картиной падения трафика через Фреда. И, кстати, хорошей посещаемостью с Mail.ru. Проект немного похож на кейс номер 5 из этой статье хотя сделан более качественно.

В сентябре Google, несмотря на сезонное повышение спроса окончательно положил проект на обе лопатки.

Как поживает экспериментальный сайт?

Посмотрим на еще один элемент исследования — сайт, созданный специально так, чтобы считаться некачественным по формальным критериям, которые так любят западные SEO-блоги, но качественным, если учесть поисковый спрос (подробности в конце презентации).

Проект поживает хорошо: [1 9659006]

Во вторник как раз был рекорд по посещаемости — +1569 визитов.

Промежуточный вывод

По-прежнему крайне важно соотношение «хорошие» / "плохие" страницы; по-прежнему «хорошими» считаются те, которые могут ответить хоть на запрос пользователя. Если на сайте будет достаточно много таких страниц, они помогут всем проектом успешно ранжироваться, несмотря на балласт в виде проблемных документов. На ряде исследуемых сайтов обнаружена дополнительная отрицательная динамика в сентябре. Вероятно, принцип «в сайте все страницы должны быть прекрасны» стал еще более значимым, чем раньше.

Читайте также:   Скрытый текст и Mobile-First индекс в Google: отставить панику

Более того, принципом является официальное подтверждение от Джона Мюллера (хотя и без нюансов, конечно).

Кстати: здесь наблюдается параллель с Яндексом, который просто удаляет из индекса документы, не имеют шансов показаться на выдачу (статус «недостаточно качественная»). Если у вас много таких url на русскоязычном проект — стоит задуматься об отношении к ним Google. Возможно, хорошим решением будет доработка контента или запрет индексации — конечно, только в случае, если они не дают существенного трафика.

В то же время, Google постоянно совершенствует алгоритмы определения «недостойных» страниц; к делу подключаются новые факторы. Неудивительно, что сайт с пустыми страницами потерял завоеванную посещаемость: нужно не только обозначить ответ на вопрос, но и дать его.

Что дальше

Можно ли на этом остановиться и махнуть рукой на дальнейший анализ, мол, ничего нового не произошло? Нет, нельзя.

Выводы выше сделанные на старой выборке, с которой уже поработал предшественник сентябрьского обновления. Для полноты картины необходимо проверить и ранее не затронутые сайты . Особенно важно найти среди них такие, где соотношение «хорошие» / "плохие" будет высоким. Изучив их, можно будет понять, чем принципиально последний апдейт отличается от предыдущих (и отличается вообще).

Исследование уже готово, удалось прийти к нескольким новым выводам. Сначала хотел описать их тут же, но статья выходила поистине огромная и сложная для восприятия. Скоро опубликую отдельный пост о сути сентябрьских обновлений Google. Оставайтесь на н & # 39; связи !

UPD: написал подробную инструкцию по борьбе с Fred-м .

Опубликовано topinup / Февраль 14, 2018
Рубрики: SEO
1 Звезда2 Звезды3 Звезды4 Звезды5 Звезд (Пока оценок нет)
Загрузка...


Заказ сайта на WordPress

Заполните форму, и наши специалисты свяжутся с вами в ближайшее время для создания сайта на выбранной теме WordPress.

Будьте в курсе последних новостей.

Подписывайтесь на наши страницы в соцсетях и на канал в Telegram.

Заказ бесплатной консультации

Ваше имя (обязательно)

Ваш телефон (обязательно)

Ваш e-mail (обязательно)