Что нужно знать об алгоритме Google Fred. Как он изменился до осени 2017? | topinup.pro - 2018

Что нужно знать об алгоритме Google Fred. Как он изменился до осени 2017?

Что нужно знать об алгоритме Google Fred. Как он изменился до осени 2017?

В последние пару недель в очередной раз произошла серьезная тряска выдачи Google. SEO-форумы, что в Рунете, что в англоязычном сегменте, наполнились сообщениями вебмастеров о резко снизился, трафика.

Шторм зафиксировали и анализаторы выдачи:

Попробуем разобраться в ситуации и понять, как жить дальше.

Тряска в сентябре — новые выходки Google Fred?

в обсуждениях часто всплывает мысль, что свежие изменения — это продолжение линии Google Fred, то есть апдейтов в марте и феврале этого года. Вообще-то проводить параллели преждевременно. С другой стороны, понять, остались неизменными или подходы Fred-а к ранжированию — весьма полезно.

Главные выводы моего весеннего исследования этого апдейта Google изложенные в презентации для SEMPRO (см. Также статью с некоторыми дополнительными замечаниями и обсуждением). Обязанности & # 39; обязательно посмотрите слайды — они понадобятся для понимания.

[googleapps domain=»docs» dir=»presentation/d/e/2PACX-1vRpBF-nV4lXf8btKLdndWyqKg0b187ug7x12HTABsEvfcwSMTRNdf1vvlsDY2R8TwHRItDzfAAVHHh7/embed» query=»start=false&loop=false&delayms=5000″ width=»700″ height=»436″ /] Основной рабочий критерий, определяющий, подружится ли сайт с Fred-м — это соотношение «хорошие» / "плохие" страницы. Сайты, где много недостаточно качественных страниц, могут попадать под санкции. Особенно важно, что Фред проявляет себя как хостовой фильтр. Проще говоря, «за компанию» с некачественными идут вниз и достойные документы. Этот вывод, кстати, с момента моего выступления успел получить официальное подтверждение.

John Mueller, одна из главных говорящих голов в Google, заявил 11 сентября:

From our point of view, our quality algorithms do look at the website overall, so they do look at everything that & # 39; s indexed. And if we see that the bulk of the indexed content is actually lower quality content then we might say & # 39; well, maybe this site overall is kind of lower quality.

Вольный перевод:

Читайте также:   Мне - 31 и я круто меняю жизнь. Очередной переезд, новая работа и 4 важных объявления

Наши алгоритмы действительно изучают весь сайт, все проиндексированные страницы. Если мы видим много проиндексированного контента плохого качества, мы считаем, что весь сайт тоже так себе.

В общем-то все очевидно, но есть один нюанс. Что такое «страница низкого качества»? Во время выступления я немного потроллить аудиторию. На 25-м слайде спросил зал — «правильно?» И получил в ответ кивки и неуверенное «дааа». А потом показал следующий слайд (и правильный ответ на 32-м).

Возвращаемся с марта в октябрь. Можно ли считать выводы по-прежнему актуальны? Это не так сложно проверить. Достаточно поднять старую выборку (благо, она достаточно большая — и не лень же мне тогда было ее составлять! ..). Ситуация на тех проектах, мало изменились, покажет нам, изменился ли Fred. Но сначала хочу рассказать об одном показательный кейсе.

Кейс: несоответствие трафика, количества точек входа и страниц в поиске

Еще до того, как я взялся за изучение новых тенденций, мне попалась интересная ситуация на сайте клиента.

вот скриншот с Search Console:

А вот с Метрики:

А вот наконец с моего сервиса https://bez-bubna.com/

Несоответствие!

Число страниц в индексе сильно возросла. А число страниц, приносят трафик и общий объем визитов с Google — явно снизились. Чаще всего эти показатели сильно коррелируют. Больше страниц — больше точек входа — более визитов (просто, понятно, логично). То есть этот пример — живой аргумент в пользу версии, которую я изложил выше.

Почему остановился на этом кейсе так подробно? Потому что с этого сайта я максимум возможной информации (в отличие от большей части из 116 проектов в начальной выборке) и могу исключить другие факторы. Такой вот свежий наглядный пример.

Читайте также:   SEO-заметки, выпуск №1: эксперимент с sitemap.xml, тошнота n-грамм, удобочитаемость текста и LSI

Ну а теперь к главному.

Как сейчас ранжируются сайты, нарушены Fred году в марте и феврале?

Для тех проектов, не смогли улучшить контент или не стали изменять настройки индексации практически ничего не изменилось . Просели не восстановили трафик до сих пор. Удивительные примеры отличного ранжирования не самых качественных проектов также остались. Исключения есть, но достаточно редки. Вот интересный случай — интернет-магазин большим количеством «пустых» страниц (30 слайд в презентации):

Другой пример — сайт-каталог с огромным количеством страниц, с прямо-таки классической картиной падения трафика через Фреда. И, кстати, хорошей посещаемостью с Mail.ru. Проект немного похож на кейс номер 5 из этой статье хотя сделан более качественно.

В сентябре Google, несмотря на сезонное повышение спроса окончательно положил проект на обе лопатки.

Как поживает экспериментальный сайт?

Посмотрим на еще один элемент исследования — сайт, созданный специально так, чтобы считаться некачественным по формальным критериям, которые так любят западные SEO-блоги, но качественным, если учесть поисковый спрос (подробности в конце презентации).

Проект поживает хорошо: [1 9659006]

Во вторник как раз был рекорд по посещаемости — +1569 визитов.

Промежуточный вывод

По-прежнему крайне важно соотношение «хорошие» / "плохие" страницы; по-прежнему «хорошими» считаются те, которые могут ответить хоть на запрос пользователя. Если на сайте будет достаточно много таких страниц, они помогут всем проектом успешно ранжироваться, несмотря на балласт в виде проблемных документов. На ряде исследуемых сайтов обнаружена дополнительная отрицательная динамика в сентябре. Вероятно, принцип «в сайте все страницы должны быть прекрасны» стал еще более значимым, чем раньше.

Читайте также:   Что такое SEO - это основа продвижения сайтов или можно обойтись без него?

Более того, принципом является официальное подтверждение от Джона Мюллера (хотя и без нюансов, конечно).

Кстати: здесь наблюдается параллель с Яндексом, который просто удаляет из индекса документы, не имеют шансов показаться на выдачу (статус «недостаточно качественная»). Если у вас много таких url на русскоязычном проект — стоит задуматься об отношении к ним Google. Возможно, хорошим решением будет доработка контента или запрет индексации — конечно, только в случае, если они не дают существенного трафика.

В то же время, Google постоянно совершенствует алгоритмы определения «недостойных» страниц; к делу подключаются новые факторы. Неудивительно, что сайт с пустыми страницами потерял завоеванную посещаемость: нужно не только обозначить ответ на вопрос, но и дать его.

Что дальше

Можно ли на этом остановиться и махнуть рукой на дальнейший анализ, мол, ничего нового не произошло? Нет, нельзя.

Выводы выше сделанные на старой выборке, с которой уже поработал предшественник сентябрьского обновления. Для полноты картины необходимо проверить и ранее не затронутые сайты . Особенно важно найти среди них такие, где соотношение «хорошие» / "плохие" будет высоким. Изучив их, можно будет понять, чем принципиально последний апдейт отличается от предыдущих (и отличается вообще).

Исследование уже готово, удалось прийти к нескольким новым выводам. Сначала хотел описать их тут же, но статья выходила поистине огромная и сложная для восприятия. Скоро опубликую отдельный пост о сути сентябрьских обновлений Google. Оставайтесь на н & # 39; связи !

UPD: написал подробную инструкцию по борьбе с Fred-м .

Опубликовано topinup / Февраль 14, 2018
Рубрики: SEO
1 Звезда2 Звезды3 Звезды4 Звезды5 Звезд (Пока оценок нет)
Загрузка...


Заказ сайта на WordPress

Заполните форму, и наши специалисты свяжутся с вами в ближайшее время для создания сайта на выбранной теме WordPress.

Будьте в курсе последних новостей.

Подписывайтесь на наши страницы в соцсетях и на канал в Telegram.

Заказ бесплатной консультации

Ваше имя (обязательно)

Ваш телефон (обязательно)

Ваш e-mail (обязательно)