Что делать сразу после запуска нового сайта: рекомендации + интересный кейс | topinup.pro - 2018

Что делать сразу после запуска нового сайта: рекомендации + интересный кейс

Что делать сразу после запуска нового сайта: рекомендации + интересный кейс

Инструкции, как подготовить сайт к запуску — вагон и маленькая тележка. Они действительно важные и полезные (возможно, я как-нибудь соберусь и напишу свою). Но есть один нюанс.

Вот вы сделали новый сайт. Убедились, что страницы загружаются быстро, расправились с битыми ссылками, подключили системы аналитики … Выполнили еще добрую сотню пунктов с чек-листа. Все, можно вздохнуть с облегчением и пойти выпить отдохнуть неделю?

К сожалению, нет.

Если проект более или менее сложный, то предусмотреть все без исключения проблемы не получится. Огромное большинство сайтов годами живут с техническими недостатками, а вы хотите к релизу сделать все идеально? Здесь имеет сильно повезти.

В первую пару недель после старта с сайтом нужно следить особенно внимательно и оперативно его дорабатывать. Новорожденный ресурс уязвим (например, для воров контента). Не помешает, если первое впечатление на поисковые системы будет благоприятным.

Ситуация осложняется тем, что на начальном этапе у нас минимальные возможности для анализа (нет статистики в панелях вебмастеров и системах веб-аналитики). [19659003] Что же делать? Очевидно, пользоваться теми данными, которые есть.

Анализ логов сервера на старте проекта — насущная необходимость

По большому счету, логи — единственное, что есть в первые дни. Для оптимизатора важен в первую очередь access.log . При этом можно поставить разработчику задача разгребать лог ошибок и исправлять их — хуже не будет.

Читайте также:   19 мая выступаю на SEMPRO с докладом "Как собрать трафик с Google и не остаться без штанов"

Лог доступа показывает нам в реальном времени как посетители и работы взаимодействуют с сайтом. Изучаем его и ищем несоответствия, подозрительные записи. Например:

  • Посещение страниц, которых нет в карте сайта (а не мусорный это документ?).
  • Ошибки сервера, в первую очередь 404. На новом нормальном сайте им взяться неоткуда. Стоит проверить и редиректы (301,302).
  • Обращение с малым количеством отданных байт. Опять же подозрение на мусорный контент или некорректную работу скрипта, неполная загрузка.
  • Множество мероприятий по одному и тому же IP (попытка взлома? Парсинг контента?).

Разумеется, неоценимую помощь логи могут предоставить для ускорения индексации больших сайтов. Пример использования показывал в докладе на SEMPRO :

Для автоматизации анализа можно использовать этот бесплатный инструмент . Имейте в виду, что всю работу он вас не сделает, потому что возможных проблем множество. К счастью, на стадии запуска журналы не такие большие (нет реальных посетителей, в основном боты). Лог за день-два можно просматривать и вручную, используя простой поиск в Notepad.

Приведу интересный пример, который показывает, какими разными бывают внештатные ситуации, которые отражаются в логах.

Читайте также:   Что нужно знать об алгоритме Google Fred. Как он изменился до осени 2017?

История одного запуска, который чуть не провалился

Как-то ко мне обратились за аудитом для только что созданного сайта.

Вообще-то правильно сначала сделать аудит, а потом уже открывать доступ к ресурсу. Но лучше уж так, чем через два года после старта.

Я прежде всего потребовал логи. Открываю и вижу, что Googlebot достаточно активно ползает по страницам, буквально с первого же дня. Как-то подозрительно, не похоже на него (см. здесь ).

Смотрю дальше — а Googlebot странный. Большая часть визитов имела реферер, чего в поисковых роботов обычно нет.

Реферер — это один из HTTP-заголовков, которые отправляются при запросе url с сервера. Содержит адрес источника перехода. Если вы щелкните по ссылке выше, ведущей на статью в Вики о access.log, то в балке Википедии с & # 39; появится запись с реферером http://alexeytrudov.com/biznes/internet/srazu-posle-zapuska . html.

Реферер в виде адреса одной из страниц сайта может с & # 39; являться в мероприятия поискового робота, если запрашивается файл css или js. Это нормальная ситуация. Ну а в описываемом случае показывался совершенно посторонний сайт.

Оказалось, что на домене с реферера располагается полная копия проекта! Домен должен А-запись с выделенным IP сайта, который я аудированные. То есть через настройки зоны DNS и сервера клиента по адресу чужого домена отдавался весь контент сайта. Визиты Googlebot самом деле происходили на адреса, принадлежащие чужом домена (отсюда и реферер). Более того, десятки страниц с чужого сайта уже попали в индекс!

Читайте также:   Запись вебинара по Баден-Баден + дополнительные ответы по работе с SEО-текстами

В перспективе это чревато очень неприятными проблемами с определением главного зеркала. Попросту говоря, у владельца того домена была шикарная возможность отвести весь поисковый трафик.

Как решили проблему:

  • Оперативно завели на сервере клиента сайт с чужим доменным им & # 39; ям и поставили заглушку с ответом сервера 410. Она стала открываться по всем адресам, в том числе тем, которые уже попали в индекс.
  • Добавили canonical там, где он отсутствовал (для Google в принципе этого было бы достаточно, но так как Яндекс не учитывает междоменные canonical, ограничиваться только им нельзя).
  • Разработчик написал скрипт для мониторинга логотип и отслеживания мероприятий по реферером; нашли и обезвредили еще один домен.

В общем, все кончилось хорошо. Сайт живет и процветает. А я с тех пор еще внимательнее отношусь к анализу логов, что и вам советую.

Опубликовано topinup / Февраль 12, 2018
Рубрики: SEO
1 Звезда2 Звезды3 Звезды4 Звезды5 Звезд (Пока оценок нет)
Загрузка...


Заказ сайта на WordPress

Заполните форму, и наши специалисты свяжутся с вами в ближайшее время для создания сайта на выбранной теме WordPress.

Будьте в курсе последних новостей.

Подписывайтесь на наши страницы в соцсетях и на канал в Telegram.

Заказ бесплатной консультации

Ваше имя (обязательно)

Ваш телефон (обязательно)

Ваш e-mail (обязательно)